Connect with us

Ciencia y tecnología

WhatsApp comienza a implementar reacciones emoji en la versión beta de Android

Published

on

WhatsApp, el servicio de mensajería cifrada propiedad de Meta que presume más de dos mil millones de usuarios en todo el mundoagrega reacciones emoji en beta en Android. WABetaInfoUna fuente confiable de las próximas funciones de WhatsApp informa que las reacciones emoji comenzaron a aparecer en la versión beta 2.22.8.3 de la aplicación de Android del servicio, brindando a los usuarios una forma rápida y fácil de responder a los mensajes entrantes.

Al presionar prolongadamente un mensaje recibido, la función permite a los usuarios reaccionar con uno de los seis emoji: pulgar hacia arriba, corazón, llanto, risa, cara de sorpresa o manos juntas (normalmente se entiende como «gracias»). WhatsApp parece estar implementando la función en Android en fases, y no pudimos hacer que apareciera nosotros mismos.

La función de reacción emoji en acción.
Imagen: WABetaInfo

Junto con su aparición en Android, hay señales de que las reacciones emoji también están en camino para las aplicaciones de escritorio e iOS del servicio. A partir de principios de enero La aplicación beta de WhatsApp en iOS obtuvo un cambio de configuración para controlar las «notificaciones de reacción», y apareció una configuración similar en el aplicación de escritorio beta a principios de este mes.

Las reacciones con emojis se han vuelto comunes en otros servicios de mensajería como iMessage, Facebook Messenger, Aplicación de mensajes de Googley incluso mensajes directos de Twitter. Ahora, finalmente, una de las aplicaciones de mensajería más populares del mundo está entrando en acción.

READ  Aleatorio: el modder de la consola hace realidad la maqueta de 'Fake Portable GameCube'

Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España. Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada.

Ciencia y tecnología

Microsoft está haciendo una versión nativa de Arm de Visual Studio 2022 y una mini PC

Published

on

Microsoft está trabajando en una versión Arm64 nativa de Visual Studio 2022 y una PC Arm en miniatura. Una vista previa de una versión nativa de Arm de Visual Studio 2022 estará disponible «en las próximas semanas» y se espera que se envíe completamente a finales de este año con soporte Arm64 .NET.

Si bien los dispositivos Arm como Surface Pro X podían ejecutar Visual Studio a través de la emulación x64, algunas funciones no eran compatibles y el rendimiento también se vio afectado. Sin duda, los desarrolladores estarán intrigados por obtener más información sobre la compatibilidad nativa de Arm con Visual Studio 2022 y VS Code, y Microsoft está creando lo que describe como una «cadena de herramientas nativa de Arm»:

  • Visual Studio 2022 completo y VS Code
  • VisualC++
  • .NET 6 y Java moderno
  • Marco .NET clásico
  • Terminal de Windows
  • WSL y WSA para ejecutar aplicaciones Linux y Android

Microsoft está construyendo una cadena de herramientas nativa para Arm.
Imagen: Microsoft

Junto con este impulso nativo de Arm, Microsoft se asoció nuevamente con Qualcomm para crear un dispositivo de desarrollo impulsado por Arm. El proyecto Volterra utiliza un procesador Snapdragon y una unidad de procesamiento neuronal (NPU) para permitir a los desarrolladores crear aplicaciones de IA nativas de la nube.

El dispositivo en sí se parece a una PC tipo Mac Mini y tiene un diseño apilable para que los desarrolladores puedan apilar varias PC Project Volterra en sus escritorios o dentro de los racks de servidores. Microsoft aún no revela las especificaciones exactas, pero Project Volterra tiene tres puertos USB traseros, junto con un puerto DisplayPort y Ethernet. También hay dos puertos USB-C en el costado del dispositivo, y el dispositivo está hecho de plástico reciclado del océano.

El proyecto Volterra tiene un diseño apilable.
Imagen: Microsoft

«Queremos que cree aplicaciones de IA nativas de la nube», dice Panos Panay, administrador de Windows y dispositivos. «Con Arm64 Visual Studio nativo, compatibilidad con .NET y el proyecto Volterra que llegará más adelante este año, estamos lanzando nuevas herramientas para ayudarlo a dar el primer paso en este viaje».

Microsoft se asoció con Qualcomm el año pasado en su conferencia de desarrolladores Build para crear un Kit de desarrollo basado en brazos para que los desarrolladores creen aplicaciones Arm64 nativas para Windows. A pesar de eso, todavía estamos esperando ver más dispositivos y aplicaciones de Windows con tecnología Arm. Muchos desarrolladores confían en la emulación Arm64 integrada en Windows para permitir que los consumidores y las empresas ejecuten sus aplicaciones y, sin una base de instalación más grande de dispositivos Arm, es poco probable que eso cambie.

Microsoft también está abriendo su Microsoft Store en Build hoy. La empresa eliminó la lista de espera para las aplicaciones win32 y abrió la tienda a todos los desarrolladores de aplicaciones. Hemos visto aparecer una gran cantidad de aplicaciones de escritorio en Microsoft Store junto con el lanzamiento de Windows 11, y eliminar la lista de espera debería significar que veremos aparecer aún más en los próximos meses.

Actualización, 24 de mayo a las 11:50 a. m. ET: Artículo actualizado con más detalles sobre el dispositivo Project Volterra de Microsoft.

READ  Nueva aplicación de escritorio de Google Drive para reemplazar la copia de seguridad y sincronización y los clientes de Drive File Stream a finales de este año
Continue Reading

Ciencia y tecnología

El generador de texto a imagen de Google ‘Imagen’ es muy fotorrealista

Published

on

En las últimas semanas, el DALL-E 2 El generador de imágenes de IA ha estado causando sensación en Twitter. Google lanzó su propia versión esta noche titulada «Imageny combina un profundo nivel de comprensión del lenguaje con un «grado de fotorrealismo sin precedentes».

De acuerdo a Jeff Dean, jefe de IA en Google, dijo que los sistemas de IA como estos «pueden desatar la creatividad humana/informática conjunta», e Imagen es «una dirección [the company is] perseguir. El avance realizado por Google Research, Brain Team en su modelo de entrega de texto a imagen es el nivel de realismo. En general, DALL-E 2 es en su mayoría realista con su lanzamiento, pero una mirada más cercana podría revelar las licencias artísticas realizadas. (Para obtener más información, asegúrese de mira este video explicativo.)

Imagen se basa en el poder de los modelos de lenguaje de gran transformador para comprender el texto y se basa en la fuerza de los modelos de difusión para generar imágenes de alta fidelidad. Nuestro hallazgo clave es que los grandes modelos de lenguaje genérico (por ejemplo, T5), entrenados previamente en corpus de texto, son sorprendentemente eficientes en la codificación de texto para la síntesis de imágenes: aumentar el tamaño del modelo de lenguaje en Imagen mejora tanto la fidelidad de la muestra como la alineación de la imagen y el texto. . más que aumentar el tamaño del modelo de entrega de imágenes.

Para probar este avance, Google ha creado un punto de referencia para evaluar modelos de texto a imagen llamado Dibujar banco. Los evaluadores humanos prefirieron «Imagen sobre otros modelos en comparaciones lado a lado, tanto en términos de calidad de muestra como de alineación de imagen y texto». Se comparó con VQ-GAN+CLIP, modelos de difusión latente y DALL-E 2.

Mientras tanto, las métricas utilizadas para demostrar que Imagen es mejor para comprender las solicitudes de los usuarios incluyen relaciones espaciales, texto largo, palabras raras e indicaciones difíciles. Otro avance logrado es una nueva arquitectura Efficient U-Net que es «más eficiente desde el punto de vista computacional, más eficiente en memoria y converge más rápido».

Imagen logra un nuevo puntaje máximo de FID de 7.27 en el conjunto de datos COCO, nunca entrenando en COCO, y los evaluadores humanos encuentran que las muestras de Imagen están a la par con los propios datos COCO en la alineación de imagen y texto.

En el frente del impacto social, Google «ha decidido no publicar ningún código público o demostración» de Imagen en este momento dado el posible abuso. Además:

Imagen se basa en codificadores de texto entrenados en datos no curados a escala web y, por lo tanto, hereda los sesgos sociales y las limitaciones de los grandes modelos de lenguaje. Como tal, existe el riesgo de que Imagen haya codificado estereotipos y representaciones dañinas, lo que guía nuestra decisión de no publicar Imagen para uso público sin más salvaguardas.

Dicho esto, hay un demostración interactiva en el sitioy el el trabajo de investigación está disponible aquí.

READ  Nueva aplicación de escritorio de Google Drive para reemplazar la copia de seguridad y sincronización y los clientes de Drive File Stream a finales de este año

Más información sobre la IA de Google:

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Después.


Consulte 9to5Google en YouTube para obtener más información:

Continue Reading

Ciencia y tecnología

El Asistente de Google llega al Galaxy Watch 4 a través de Play Store

Published

on

Los propietarios de Galaxy Watch 4 han estado esperando al Asistente de Google desde que Samsung lanzó el dispositivo portátil solo con Bixby el año pasadoy el soporte ya está oficialmente lanzado hoy dia.

Google dio la primera vista previa oficial del Asistente que se ejecuta en Galaxy Watch 4 en febrero. Hay un nuevo diseño que se inspira en la experiencia del teléfono Pixel. Al iniciar con «Hey Google», se abre una interfaz de usuario de pantalla completa con un fondo negro y una barra de luz de cuatro colores en la parte inferior que reacciona a la entrada de voz.

El logo del Asistente también aparece brevemente con el mensaje «Hola, ¿en qué puedo ayudarte?» indicador, mientras que la hora aparece curvada en la parte superior. Además de esto, la interfaz de usuario de resultados también se ha modernizado con un desenfoque de fondo optimizado.

A partir de hoy, los usuarios de Galaxy Watch4 también podrán descargar el Asistente de Google en sus dispositivos para acceder a interacciones de voz más rápidas y naturales, respuestas rápidas a preguntas y ayuda sobre la marcha.

En comparación con lo que estaba disponible anteriormente en Wear OS 2, Google está promocionando «tiempos de respuesta más rápidos que nunca». Según nuestro breve uso de hoy, la transcripción de voz parece procesarse en el dispositivo y aparece casi al instante. Acciones disponibles incluir:

  • Administre su tiempo, «inicie un temporizador», «establezca una alarma», «establezca recordatorios»
  • Manténgase en contacto con familiares y amigos, «iniciar una llamada», «enviar un mensaje»
  • Controla tu hogar inteligente, «enciende la luz del dormitorio»
  • Obtenga respuestas a sus preguntas, «¿dónde está el café más cercano?», «¿cómo está el clima hoy?»
READ  Google agrega una nueva funcionalidad para editar sus documentos de Office, directamente desde los archivos adjuntos de Gmail / Digital Information World

antes vs despues

Curiosamente, a los usuarios de Galaxy Watch 4 simplemente se les solicita que actualicen un nuevo «Asistente” que aparece en la lista Google Play > Mis aplicaciones. (También puede buscarlo en Play Store en el reloj). Después de descargar la última versión, el Asistente de Google aparecerá como un nuevo ícono en el iniciador de aplicaciones.

El lanzamiento le indica que «Habilite el Asistente de Google en su reloj», y los usuarios se dirigen a sus teléfonos para completar el largo proceso.

  1. Activa el Asistente de Google.
  2. Accede a tu asistente con «Hey Google» y acepta Voice Match.
  3. La grabación de audio es tu elección.
  4. Obtenga resultados personalizados en su reloj.
  5. Habla con tu asistente con un botón.

Además del icono de la aplicación y la palabra clave, el asistente se puede activar a través de una llave de hardware: Configuración de la aplicación > Funciones avanzadas > Personalizar teclas. Aparece debajo de «Tocar dos veces» o «Mantener presionada» la tecla de inicio. Puede habilitar/deshabilitar «Hey Google» y «Salida de voz» en Configuración > Google > Asistente.

Google Assistant estará disponible en 10 mercados, incluidos Australia, Canadá, Francia, Alemania, Irlanda, Japón, Taiwán, Corea, Reino Unido y Estados Unidos. También admitirá 12 idiomas, incluidos danés, inglés (estadounidense, canadiense, británico, australiano, irlandés), japonés, coreano, español, francés (canadiense, francés) y taiwanés.

Con este lanzamiento, Google ha completado la implementación de todas las aplicaciones patentadas nuevas/actualizadas, excepto una (Música de Youtube, Pago de Googley mapas) anunciado junto con Wear OS 3 en I/O el año pasado. Fitbit debutará en el Pixel Watch este otoño.

Obtenga más información sobre el Asistente de Google:


Consulte 9to5Google en YouTube para obtener más información:

Continue Reading

Trending