Connect with us

Ciencia y tecnología

Fuentes: se suponía que Pixel 6 Pro se lanzaría con desbloqueo facial

Published

on

Fuentes: se suponía que Pixel 6 Pro se lanzaría con desbloqueo facial

9to5Google May informa hoy que el plan original de Google era lanzar el Pixel 6 Pro con desbloqueo facial, pero la función estaba relativamente cerca del lanzamiento.

Según fuentes familiarizadas con el asunto, Google tenía la intención de anunciar el Pixel 6 Pro con soporte de desbloqueo facial para complementar el sensor de huellas dactilares debajo de la pantalla. La capacidad solo estaba pensada para el buque insignia más grande y no para el Pixel 6 más pequeño, que colabora con algo que teníamos anteriormente. especulado basado en el código.

La diferencia de hardware entre los dos teléfonos es una cámara frontal de 11,1 MP con 94 grados».ultra ancho”campo de visión en el 6 Pro en comparación con 8MP y 84 grados en el Pixel 6 de $599. Sinon, il n’y a pas de matériel dédié (caméras infrarouges, projecteur de points ou illuminateur d’inondation) comme on l’a vu sur le Pixel 4 en 2019. Rien de tel que le radar Soli pour accélérer le processus de déverrouillage tampoco.

Desbloqueo facial con tecnología Soli en el Pixel 4

Es de suponer que Google se basa únicamente en lo que captura esa cámara selfie para autenticar que eres tú. Este siempre ha parecido el enfoque más Google-y, que utiliza principalmente software para resolver problemas difíciles. También es algo de lo que se ha aprovechado el Galaxy Nexus con Android Ice Cream Sandwich.

Es de esperar que haya avances marcados en el procesamiento y la precisión en los últimos 11 años, especialmente con la presencia de hardware dedicado. como tensor. Por ejemplo, Google presume su chip como permitir una detección de rostros más rápida y precisa, en contextos fotográficos, gracias a los subsistemas integrados, mientras consume la mitad de la potencia de un Pixel 5.

READ  XFX muestra las tarjetas gráficas personalizadas Radeon RX 6900 XT y RX 6800 XT refrigeradas por agua con bloque de agua EK

La decisión relativamente de última hora de eliminar el desbloqueo facial se refleja en la forma en que el material de marketing temprano y del día del lanzamiento hace referencia a la capacidad. Esto incluía un Anuncio impreso alemán (aunque se afirmó incorrectamente que se trataba de la entrada de Pixel 6) y una página de lanzamiento del operador del Reino Unido que mostraba «Desbloqueo de huellas dactilares y rostro» en una imagen en vivo del Centro de seguridad de Android 12. Esta referencia, así como una en un Hoja de Play Store captura de pantalla – más tarde fue eliminado. Desde entonces ha habido otros referencias dispersas a la capacidad de los dispositivos Pixel 6 Pro reales.

Una de las fuentes nos dijo que Google todavía está trabajando para agregar el desbloqueo facial al Pixel 6 Pro, y que está diseñado para el La próxima gran actualización trimestral de Androidaunque los planes todavía pueden cambiar.

Si es así, es muy emocionante que Google actualice el Pixel 6 Pro con una nueva característica importante tan cerca del final de su ciclo anual de productos. Sin duda, será una adición bienvenida para los propietarios actuales y para aquellos que siguen teniendo dudas sobre el lector de huellas dactilares. Mientras tanto, este método de desbloqueo facial probablemente será un elemento básico en los futuros dispositivos Pixel en el futuro.

Obtenga más información sobre el Pixel 6 Pro:

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Después.


Consulte 9to5Google en YouTube para obtener más información:

READ  El editor de GTA Take-Two envía un aviso de DMCA al creador del mod VR

Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España. Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ciencia y tecnología

Provenance llega a la App Store con emulación de PlayStation

Published

on

Provenance llega a la App Store con emulación de PlayStation

Apple sorprendió a todos a principios de este mes con un cambio en las pautas de la App Store que ahora permite aplicaciones de emulación de consolas de juegos retro para sus plataformas, incluidas iOS y tvOS. Tras el éxito de Delta, los desarrolladores detrás de Provenance han confirmado que pronto lo lanzarán en la App Store, llevando la emulación de PlayStation a los usuarios de iPhone y iPad.

Provenance llevará la emulación de juegos de PlayStation a los usuarios de iOS

Para aquellos que no lo saben, Origen es un emulador de juegos que ya está disponible a través de AltStore y otros métodos de descarga. Al igual que Delta de Riley Testut, ahora disponible en la App Store, Provenance también puede emular la mayoría de las consolas clásicas de Nintendo, como NES, SNES, Game Boy, Nintendo 64 y DS. Sin embargo, también funciona con juegos de Atari, Sega y PlayStation.

La noticia fue confirmada por Joseph Mattiello, jefe del proyecto Provenance, en Yo más. Por supuesto, aunque Apple ahora permite emuladores de juegos, la App Store tiene muchas otras reglas, por lo que Mattiello dijo que el equipo tuvo que «estudiar» todas las pautas antes de enviar el emulador a la revisión de la App Store.

Aún así, esta es una gran noticia para los fanáticos de la emulación de juegos que, por primera vez, tendrán la capacidad de ejecutar juegos de PlayStation en iOS sin tener que recurrir a la descarga. Mattiello también reveló que Provenance soportará los juegos de SEGA Dreamcast y Sony PlayStation 2 en el futuro.

Obtenga más información sobre los emuladores de juegos en la App Store

Emuladores de juegos iOS AltStore App Store
Delta Emulator ya está disponible en la App Store para iPhone y iPad

Históricamente, las pautas de la App Store han prohibido a los desarrolladores lanzar software de emulación para las plataformas Apple. Sin embargo, con la legislación antimonopolio de la DMA y la llegada de los App Marketplaces a la UE, Apple ha reconsiderado su decisión y ahora permite este tipo de software en la App Store de todo el mundo, aunque sólo está autorizado «emulación de juegos retro» de «consola».

READ  En 2011, Elon Musk prometió llevar humanos a Marte. internet recuerda

Existe un gran debate sobre si la emulación es legal o no, ya que normalmente requiere descargar copias pirateadas de los juegos (llamadas ROM). Sin embargo, Apple deja claro en las Directrices de la App Store que los desarrolladores son «responsables de todo el software ofrecido en su aplicación, incluida la garantía de que dicho software cumpla con estas directrices y todas las leyes aplicables».

Además de permitir emuladores de juegos, Apple ya había cambiado sus directrices hace unos meses para permitir servicios de streaming de juegos en la App Store.

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.

Continue Reading

Ciencia y tecnología

Nothing Phone (2) y los auriculares se benefician de la integración ChatGPT

Published

on

Nothing Phone (2) y los auriculares se benefician de la integración ChatGPT

Tras el lanzamiento de Nothing Ear y Ear(a) esta semana, Nothing también está lanzando una nueva actualización para Nothing Phone(2) que trae muchas actualizaciones, incluida la integración ChatGPT.

Nothing OS 2.5.5 se está implementando ahora en Phone (2), todavía no en Phone (1) y Phone (2a), con varias incorporaciones nuevas. Hay soporte para UltraHDR de Android (llamado «Ultra XDR» en los teléfonos Nothing), una opción de refuerzo de RAM, un nuevo widget de grabadora, un nuevo widget de batería y más.

Sin embargo, la mayor incorporación es la integración nativa de ChatGPT en los productos Nothing.

Nothing Phone (2) obtendrá algunos widgets con ChatGPT, uno para entrada de voz y el otro para texto, y habrá un nuevo botón en la captura de pantalla y en las ventanas emergentes del portapapeles para importar este contenido a ChatGPT.

Nada explica:

Se agregaron nuevos widgets de ChatGPT para iniciar ChatGPT en diferentes modos desde su pantalla de inicio para un acceso más rápido.

Se agregó un botón en la ventana emergente de captura de pantalla y portapapeles para pegar contenido directamente en una nueva conversación en ChatGPT.

La integración de Nothing's ChatGPT también se extiende a Ear y Ear(a). Debes estar emparejado con un teléfono Nothing, pero una vez emparejados, ambos auriculares pueden iniciar chats de voz con ChatGPT sin tener que quitar el teléfono.

EL El registro de cambios completo para Nothing OS 2.5.5 está disponible en el sitio web de Nothing Ahora.

Obtenga más información sobre Nada:

Sigue a Ben: Gorjeo/X, TemasY Instagram

Continue Reading

Ciencia y tecnología

VASA-1 de Microsoft puede simular una persona con una foto y una pista de audio

Published

on

VASA-1 de Microsoft puede simular una persona con una foto y una pista de audio
Agrandar / Una imagen de muestra de Microsoft para «VASA-1: caras parlantes realistas impulsadas por audio generadas en tiempo real».

El martes, Microsoft Research Asia reveló VASA-1, un modelo de IA capaz de crear un vídeo animado sincronizado de una persona hablando o cantando a partir de una única foto y una pista de audio existente. En el futuro, podría impulsar avatares virtuales que se muestren localmente y no requieran una transmisión de video, o permitir que cualquier persona con herramientas similares tome una foto de alguien encontrado en línea y les dé la sensación de que dice lo que quiere.

«Esto allana el camino para interacciones en tiempo real con avatares realistas que imitan los comportamientos conversacionales humanos», se lee en el resumen del estudio. trabajo de investigación adjunto titulado «VASA-1: Caras parlantes realistas generadas por audio generadas en tiempo real». Es obra de Sicheng Xu, Guojun Chen, Yu-Xiao Guo, Jiaolong Yang, Chong Li, Zhenyu Zang, Yizhong Zhang, Xin Tong y Baining Guo.

El marco VASA (abreviatura de “Visual Affective Skills Animator”) utiliza el aprendizaje automático para analizar una imagen estática y un clip de audio de voz. Luego es capaz de generar un vídeo realista con expresiones faciales precisas, movimientos de cabeza y sincronización de labios con audio. No clona ni simula voces (como otras investigaciones de Microsoft), sino que se basa en una entrada de audio existente que puede grabarse o hablarse especialmente para un propósito particular.

Microsoft afirma que el modelo supera significativamente a los métodos anteriores de animación de voz en términos de realismo, expresividad y eficacia. A nosotros, esto nos parece una mejora con respecto a los modelos de animación de un solo cuadro anteriores.

READ  Las nuevas Mac de escritorio con chips M2 Ultra y M2 Max podrían debutar en la WWDC

Los esfuerzos de investigación de IA para animar una sola foto de una persona o personaje se remontan al menos a algunos años, pero más recientemente, los investigadores han trabajado para sincronizar automáticamente un video generado con una pista de audio. En febrero, un modelo de IA llamado EMO: Gesto de retrato viviente del grupo de investigación del Instituto de Computación Inteligente de Alibaba ha causado sensación con un enfoque similar al VASA-1 que puede sincronizar automáticamente una foto animada con una pista de audio proporcionada (lo llaman «Audio2Video»).

Capacitado en clips de YouTube.

Los investigadores de Microsoft entrenaron VASA-1 en el Conjunto de datos VoxCeleb2 creado en 2018 por tres investigadores de la Universidad de Oxford. Este conjunto de datos contiene “más de un millón de declaraciones de 6.112 celebridades”, según el sitio web VoxCeleb2, extraídas de vídeos subidos a YouTube. VASA-1 sería capaz de generar videos con una resolución de 512 x 512 píxeles a hasta 40 cuadros por segundo con una latencia mínima, lo que significa que podría usarse para aplicaciones en tiempo real como videoconferencias.

Para mostrar el modelo, Microsoft creó una página de investigación VASA-1 que muestra muchos ejemplos de vídeos de la herramienta en acción, incluidas personas cantando y hablando en sincronización con pistas de audio pregrabadas. Muestran cómo se puede controlar el modelo para expresar diferentes estados de ánimo o cambiar su apariencia. Los ejemplos también incluyen generaciones más elegantes, como Mona Lisa rapeando sobre una pista de audio de Anne Hathaway interpretando una Canción “Paparazzi” sobre Conan O'Brien.

READ  Microsoft ahora pregunta por qué deja OneDrive en Windows 11

Los investigadores dicen que, por razones de privacidad, cada fotografía de muestra en su página fue generada por IA. EstiloGAN2 o DALL-E 3 (aparte de la Mona Lisa). Pero está claro que la técnica también podría aplicarse a fotografías de personas reales, aunque es probable que funcione mejor si una persona parece una celebridad en el conjunto de datos de entrenamiento. Aún así, los investigadores dicen que su intención no es manipular a humanos reales.

«Exploramos la generación de habilidades visuales y afectivas para personajes virtuales e interactivos [sic], NO te hagas pasar por nadie en el mundo real. Esto es sólo una demostración de investigación y no hay planes de lanzamiento de productos ni API”, se lee en el sitio.

Si bien los investigadores de Microsoft promocionan posibles aplicaciones positivas, como mejorar la equidad educativa, mejorar la accesibilidad y brindar apoyo terapéutico, la tecnología también podría ser fácilmente utilizada indebidamente. Por ejemplo, podría permitir a las personas simular chats de vídeo, hacer que parezca que personas reales están diciendo cosas que en realidad nunca dijeron (especialmente cuando se combinan con una pista de voz clonada) o autorizar el acoso basado en una sola foto en las redes sociales.

En este momento, el video generado todavía parece imperfecto en algunos aspectos, pero podría ser bastante atractivo para algunas personas si no supieran qué esperar de la animación generada por IA. Los investigadores dicen que son conscientes de esto, razón por la cual no publican abiertamente el código que impulsa el modelo.

«Nos oponemos a cualquier comportamiento destinado a crear contenido engañoso o perjudicial para personas reales y nos gustaría aplicar nuestra técnica para avanzar en la detección de falsificaciones», escriben los investigadores. «Actualmente, los vídeos generados con este método todavía contienen artefactos identificables, y el análisis digital muestra que todavía hay una brecha para lograr la autenticidad de los vídeos reales».

READ  El chip M3 Pro apenas es más rápido que el M2 Pro en un resultado de referencia no verificado

VASA-1 es sólo una demostración de investigación, pero Microsoft está lejos de ser el único grupo que desarrolla una tecnología similar. Si nos basamos en la historia reciente de la IA generativa, es potencialmente sólo cuestión de tiempo antes de que una tecnología similar se convierta en código abierto y esté disponible gratuitamente, y lo más probable es que su realismo siga mejorando con el tiempo.

Continue Reading

Trending