Connect with us

Ciencia y tecnología

El Asistente de Google sigue colapsando en la Era de Géminis

Published

on

El Asistente de Google sigue colapsando en la Era de Géminis

A medida que Google se centra cada vez más en Gemini, la experiencia de utilizar el Asistente de Google sigue deteriorándose.


Esta edición de 9to5Google Weekender es parte del boletín informativo reiniciado de 9to5Google que destaca las historias más importantes de Google con comentarios adicionales y otra información. registrar aquí ¡Para recibirlo rápidamente en tu bandeja de entrada!


En 2016, el Asistente de Google fue un gran problema. El asistente de voz prometió llevar el poder de la búsqueda de Google a los parlantes y asistentes inteligentes de su teléfono, y fue impresionante. En ese momento, Assistant estaba haciendo algunas cosas nuevas y legítimamente atractivas. E incluso hoy en día, muchas de estas funciones siguen siendo increíblemente útiles.

Pero con el tiempo, el Asistente de Google sintió que se estaba degradando activamente.

Esto no es algo nuevo. Los usuarios se han sentido así durante los últimos años, pero continúa sucediendo a medida que avanza la «era Géminis» de Google. Claramente, el énfasis acaba de cambiar, como lo muestra Google presionando a los usuarios de Android para que usen Gemini como asistente de voz en lugar de Assistant, a pesar de una brecha considerable en la funcionalidad.

Hay dos cosas que me hicieron pensar en esto esta semana. Primero, Google TV.

Esta semana, Amazon anunció que utilizaría IA para actualizar la búsqueda por voz en Fire TV. La empresa afirma que al utilizar un LLM puede responder preguntas como [insert sandlot]. Esto me llamó la atención no porque sea un nuevo uso inteligente de la IA, sino porque el Asistente de Google lo ha estado haciendo durante años. No solo funciona de la misma manera hoy, sino que Google mostró ejemplos similares en 2017. Pero, si avanzamos hasta el día de hoy, los resultados de Google ya no son los que eran antes. Al probar los ejemplos de Amazon, el Asistente de Google en mi Chromecast no fue muy consistente. Algunas consultas dieron como resultado una respuesta separada, mientras que otras se reenviaron a Search Snippets o YouTube.

READ  Identifican un exoplaneta donde soplan vientos supersónicos y llueven rocas sólidas en los océanos de magma

El otro ejemplo que me vino a la mente es el Asistente en Nest Hub y cómo esa experiencia sigue siendo tremendamente inconsistente. Google Recientemente eliminó una serie de funciones de este dispositivo y otros parlantes inteligentes, lo cual creo que está bien, pero lo que es más frustrante es que continúa dejando que las funciones restantes se pudran.

Desde hace varios años, termino mi noche con «Hola Google, buenas noches» para activar una rutina de cerrar mi casa con llave, pedirle al Asistente que ponga la alarma, apagar luces y electrodomésticos y escuchar música para ayudarme a comprender mejor. dormir. Y una a una, estas funciones se van rompiendo.

Il y a quelques mois, j'ai supprimé la fonction d'alarme de cette routine, car presque tous les soirs, elle me demandait l'heure de l'alarme, je le disais, et l'alarme ne se mettait tout simplement pas en marcha. Falló casi siempre. Los controles del dispositivo también parecen cada vez menos consistentes y, a menudo, me levanto por la mañana y me encuentro con una luz que nunca se ha apagado por alguna razón. Y, más recientemente, mi temporizador musical simplemente dejó de funcionar. Si bien la rutina ha detenido a Spotify durante mucho tiempo después de un tiempo determinado, recientemente lo dejó apagado toda la noche sin razón aparente.

Y estoy lejos de estar solo. Parece que ni siquiera puedes visitar el subreddit r/GoogleHome en estos días sin encontrar una gran cantidad de publicaciones de usuarios frustrados que encuentran funciones que no funcionan correctamente a pesar de que han estado en uso durante años. Aquí está justo algunas ejemplos de estas ultimas semanas.

La pregunta entonces es: ¿qué sigue?

La respuesta obvia es Géminis. Está muy claro que el objetivo de Google como empresa es seguir ofreciendo productos impulsados ​​por IA, y Gemini sentará muy claramente las bases para el futuro del producto de asistencia de la empresa.

¿Es esto algo bueno? Sinceramente, es difícil decirlo.

READ  El conflicto en línea aumenta tras las advertencias de la policía tras la actualización del software iOS 17.1

Géminis es claramente más capaz de recopilar información que el Mago, pero también es propenso a cometer errores y rara vez es tan conciso como el Mago. Gemini tampoco se centra en las mismas cosas que hace el Asistente hoy en día, como lo indican las muchas funciones que Gemini en Android le entrega al Asistente de todos modos. Como señaló recientemente nuestro Kyle Bradshaw, Gemini en su estado actual probablemente no esté listo para dispositivos Nest como parlantes y pantallas inteligentes. Kyle explica un escenario mejor con el que estoy de acuerdo: una combinación de Géminis y Mago.

¿Y si pudiéramos encontrarnos en algún lugar a mitad de camino? En los teléfonos, si le pides a Gemini algo que el Asistente de Google debería manejar, esa transferencia se realiza automáticamente. ¿Qué pasaría si los nuevos Nest Audio y Nest Hub Max, que absolutamente debería basarse en la naturaleza orientada a tareas del Asistente: ¿podría pasarle preguntas a Gemini sin problemas?

Por ejemplo, si digo «Hola Google, reproduce sonidos de lluvia», el asistente habitual puede manejarlo sin usar IA. Pero si pregunto algo complejo: «Hola Google, ¿cuáles son algunas actividades divertidas para hacer en el interior en un día lluvioso?» » – El asistente podría reenviar la pregunta a Gemini para obtener una respuesta más detallada.

Pero, tal como están los planes de Google actualmente, es difícil decir si esto realmente sucederá o no. La compañía está atrapada en una carrera armamentista de IA, lo que genera problemas como los principales errores virales de esta semana con las vistas previas de IA. Extraño los días en que el Asistente de Google era excelente y, como usuario, es frustrante seguir viendo cómo el producto se desmorona frente a mí. Sólo espero que Google pueda recoger los pedazos.


Las mejores historias de esta semana.

Chromebook Plus obtiene IA y nuevo hardware

El martes, Google anunció una nueva ola de funciones y hardware para Chromebook Plus. Los usuarios obtienen Google One AI Premium gratis (durante un año), una aplicación Gemini, muchas funciones nuevas actuales y futuras y hardware nuevo y más potente.

READ  Desmontaje de Pixel 6a: extracción más fácil de la batería, respaldo de plástico

Fitbit Ace LTE se lanza como reloj inteligente para niños

Inmediatamente después de las noticias sobre Chromebook, Google anunció el miércoles su último reloj inteligente con sistema operativo Wear. Este no es un nuevo Pixel Watch, sino el Fitbit Ace LTE, un reloj inteligente diseñado para niños con una versión muy personalizada de Wear OS que ofrece juegos y funciones para ayudar a los niños a mantenerse en contacto con sus padres y motivarlos a estar activos.

Como explica nuestro Abner Li, Ace podría ser la visión más completa de Google para un producto en años, y es bastante convincente.

Como LTE es disponible para preordenar ahora.

Los rastreadores Buscar mi dispositivo están aquí

Y, Finalmente, Han llegado rastreadores tipo AirTag para la red Find My Device de Android. Chipolo y Pebblebee comenzaron a enviar rastreadores esta semana y los hemos estado poniendo todos en práctica. Algunos datos interesantes incluyen cómo funciona compartir un rastreador con otra persona, así como el hecho de que activar uno de estos rastreadores también activa la red Buscar mi dispositivo en su dispositivo y, en una encuesta de esta semana, poco menos de la mitad de 9to5Google Los lectores dijeron que aún no tenían la red.

Más noticias de titulares


El resto de 9 a 17 horas.

9to5Mac: OpenAI ayuda a Apple a arreglar Siri, lo que preocupa a Microsoft

9to5Juguetes: Nomad lanza la nueva tarjeta de seguimiento Apple Find My con carga MagSafe

Eléctrico: Primer viaje del Mustang Mach-E Rally: Ford se siente más cómodo con los vehículos eléctricos

FTC: utilizamos enlaces de afiliados automáticos que generan ingresos. Más.

Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España. Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ciencia y tecnología

El último generador de vídeo con IA de Runway da vida a monstruos gigantes de algodón de azúcar

Published

on

El último generador de vídeo con IA de Runway da vida a monstruos gigantes de algodón de azúcar
Agrandar / Captura de pantalla de un video Runway Gen-3 Alpha generado con el mensaje «Un humanoide gigante, hecho de algodón de azúcar azul esponjoso, pisoteando el suelo y rugiendo hacia el cielo, con un cielo azul claro detrás de ellos».

El domingo, Runway anunció un nuevo modelo de síntesis de video de IA llamado Alfa de tercera generación Todavía está en desarrollo, pero parece crear videos de calidad similar a Sora de OpenAI, que debutó a principios de este año (y aún no se ha lanzado). Puede generar nuevos vídeos de alta definición a partir de mensajes de texto que van desde humanos realistas hasta monstruos surrealistas que pisan fuerte por el campo.

A diferencia de la pista mejor modelo anterior A partir de junio de 2023, que solo podría crear clips de dos segundos, Gen-3 Alpha podría crear segmentos de video de 10 segundos de personas, lugares y objetos que tengan una consistencia y coherencia que supere fácilmente a Gen-2. Si 10 segundos parecen cortos en comparación con el minuto completo de video de Sora, considere que la compañía está trabajando con un presupuesto de computación reducido en comparación con OpenAI, que cuenta con fondos más generosos, y en realidad tiene un historial de brindar capacidades de generación de video para usuarios comerciales.

Gen-3 Alpha no genera audio para acompañar los videoclips, y lo más probable es que generaciones temporalmente consistentes (aquellas que mantienen un carácter consistente en el tiempo) dependan de material de formación similar de alta calidad. Pero la mejora de Runway en fidelidad visual durante el año pasado es difícil de ignorar.

READ  Vimeo cierra las aplicaciones de TV - Variedad

El vídeo con IA se está calentando

Han sido unas semanas muy ocupadas para la síntesis de vídeo de IA en la comunidad de investigación de IA, incluido el lanzamiento del modelo chino. kling, creado por Kuaishou Technology, con sede en Beijing (a veces llamado “Kwai”). Kling puede generar dos minutos de vídeo HD de 1080p a 30 fotogramas por segundo con un nivel de detalle y coherencia eso coincidiría con Sora.

Mensaje Alfa Gen-3: «Los sutiles reflejos de una mujer en la ventana de un tren de alta velocidad en una ciudad japonesa».

Poco después del debut de Kling, la gente empezó a crear en las redes sociales. vídeos surrealistas de IA Usando Luma AI Máquina de sueños Luma. Estos videos eran nuevos y extraños pero en general carecía de consistencia; Probamos Dream Machine y no quedamos impresionados con nada de lo que vimos.

Mientras tanto, uno de los pioneros de la conversión de texto a video, Runway, con sede en Nueva York y fundado en 2018, recientemente fue blanco de memes que muestran que su tecnología Gen-2 está perdiendo popularidad en comparación con las plantillas de síntesis de video más nuevas. Esto puede haber motivado el anuncio de Gen-3 Alpha.

Mensaje Alfa Gen-3: «Un astronauta corriendo por un callejón en Río de Janeiro».

Generar humanos realistas siempre ha sido complicado para los modelos CG, por lo que Runway muestra específicamente la capacidad de Gen-3 Alpha para crear lo que sus desarrolladores llaman personajes humanos «expresivos» con una variedad de acciones, gestos y emociones. Sin embargo, la empresa ejemplos proporcionados No eran particularmente expresivos (la mayoría de las veces la gente se limitaba a mirar y parpadear lentamente), pero parecían realistas.

READ  Microsoft está abandonando Android en favor de aplicaciones web en Chrome OS

Los ejemplos humanos proporcionados incluyen videos generados de una mujer en un tren, un astronauta corriendo por una calle, un hombre con el rostro iluminado por el brillo de un televisor, una mujer conduciendo un automóvil y una mujer corriendo, entre otros.

Mensaje Alfa Gen-3: «Un primer plano de una mujer joven conduciendo un automóvil, mirando un bosque verde borroso y reflejado visible a través de la ventanilla lluviosa del automóvil».

Los videos de demostración generados también incluyen ejemplos CGI más surrealistas, incluida una criatura gigante caminando por una ciudad en ruinas, un hombre hecho de rocas caminando por un bosque y el monstruo gigante de algodón de azúcar que se ve a continuación, que es probablemente el mejor video en general. página.

Mensaje Alfa Gen-3: «Un humanoide gigante, hecho de algodón de azúcar azul esponjoso, pisoteando el suelo y rugiendo hacia el cielo, con un cielo azul claro detrás de ellos».

Gen-3 impulsará varias herramientas de edición de Runway AI (una de las afirmaciones más notables de la compañía), que incluyen Cepillo multimovimiento, Controles avanzados de cámaraY Modo director. Puede crear videos a partir de mensajes de texto o imágenes.

Runway dice que Gen-3 Alpha es el primero de una serie de modelos entrenados en una nueva infraestructura diseñada para entrenamiento multimodal a gran escala, dando un paso hacia el desarrollo de lo que llama «Modelos globales generales«, que son sistemas hipotéticos de IA que construyen representaciones internas de entornos y las utilizan para simular eventos futuros en esos entornos.

Continue Reading

Ciencia y tecnología

Nintendo Direct junio de 2024: todos los anuncios más importantes

Published

on

Nintendo Direct junio de 2024: todos los anuncios más importantes

GameSpot puede recibir ingresos de asociaciones publicitarias y de afiliados por compartir este contenido y compras a través de enlaces.

READ  El conflicto en línea aumenta tras las advertencias de la policía tras la actualización del software iOS 17.1
Continue Reading

Ciencia y tecnología

Selección de lentes profesionales, HDR+, más [U]

Published

on

Selección de lentes profesionales, HDR+, más [U]

La funcionalidad Feature Drop de junio continúa implementándose a través de una serie de actualizaciones de la aplicación. Pixel Camera 9.4 trae una sección de lentes manual a Pixel 6/7 Pro y Fold, junto con otros ajustes.

Actualización 17/06: La cámara Pixel 9.4 es ampliamente desplegado esta tarde. Otro cambio mueve la preferencia «Almacenar videos de manera eficiente» del menú Avanzado a la página principal Configuración> Video.

Utilice el formato H.265/HEVC en lugar de H.264/AVC para reducir el tamaño del archivo. Es posible que HEVC no sea compatible con algunas plataformas.


Original 14/06: Al igual que con el Pixel 8 Pro, los otros dos teléfonos plegables premium de Google ahora te permiten elegir una de las tres lentes traseras para tomar una foto. Toque el engranaje de configuración en la esquina inferior izquierda (o deslice hacia arriba) para configurar las fotos. Encontrará una nueva pestaña «Pro» junto a «General» con selección de lentes: Automático o Manual.

(A pesar del nombre de la pestaña, estos no son los «controles profesionales» introducidos en el Pixel 8 Pro que le permiten ajustar el enfoque, la velocidad de obturación y el ISO).

La pastilla de zoom situada encima del botón del obturador se sustituye por Ultra gran angular, gran angular y teleobjetivo. Pellizque hacia adentro o hacia afuera para hacer zoom cuando este modo manual esté habilitado. Google usará W de forma predeterminada cuando abras la aplicación más tarde.

Píxel 7 Pro

Otro cambio hace que Pixel Camera mueva el selector RAW/JPEG a la pestaña Pro. Anteriormente estaba enterrado en Configuración > Avanzado. Esto hace que el cambio sea mucho más fácil cuando quieras editar la foto profesionalmente más adelante. En comparación con el 8 Pro, no tienes preferencia de resolución: 12MP o 50MP.

READ  “Creo en deambular” para aumentar la productividad

Es de suponer que esta actualización trae la selección de fotogramas mejorada HDR+ a Pixel 6+, incluidos Fold y Tablet:

HDR+ ahora te permite identificar el mejor momento en tu foto HDR+ con solo presionar el botón del obturador. Es más inteligente seleccionar la imagen base para producir la imagen fusionada de fotogramas múltiples, teniendo en cuenta criterios como ojos abiertos y sujetos sonrientes.

Versión9.4.103.641377609.23 de Pixel Camera todavía está en implementación a través de Play Store. Se suma a otras actualizaciones del lado del servidor y de las aplicaciones adyacentes al lanzamiento de funciones de junio en los últimos días:

Hasta el viernes, Android 14 QPR3 aún no está ampliamente implementado.

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.

Continue Reading

Trending