Connect with us

Ciencia y tecnología

La primera misión lunar Artemisa de la NASA tendrá un astronauta virtual: Alexa de Amazon

Published

on

Entre los muchos aspectos que se seguirán de cerca en el campo, al menos por el grupo detrás de este experimento de Alexa, se encuentra cómo se comporta el asistente virtual en el espacio. Y al menos, será publicidad bien colocada.

Todo es parte de una colaboración entre Amazonas, (AMZN) Cisco (CSCO), y Lockheed Martin (LMT), quien construyó la cápsula Orion para la NASA. Lockheed se acercó a las otras dos compañías con la idea de desarrollar un asistente virtual hace unos tres años, dijeron las compañías, y están pagando el costo total de incluir al asistente virtual en la misión Artemis 1. Lockheed también reembolsa a la NASA por cualquier la ayuda que la agencia ha dado a este proyecto en virtud de un acuerdo denominado Acuerdo de derecho espacial, que permite pagar a la agencia espacial por la experiencia o los recursos que pone a disposición de las empresas que trabajan en determinados proyectos espaciales.

La NASA no participó en el diseño del sistema ni en la selección de los socios que Lockheed reunió, dijo la agencia espacial a CNN Business.

«Lockheed está liderando el esfuerzo y estamos felices de permitir eso en términos de proporcionar una plataforma, tal como lo haríamos con otras demostraciones de tecnología que creemos que podrían tener beneficios futuros ”, dijo el subdirector del programa Orion de la NASA a CNN Business, Howard Hu.

El sistema, llamado Calisto en honor a una compañera de la diosa Artemisa en la mitología griega, tiene como objetivo facilitar algún día el trabajo de los astronautas. Par exemple, ils pourraient utiliser Alexa pour ajuster l’éclairage de la cabine tout en effectuant d’autres tâches, ou généralement trouver des randonnées longues et ardues dans l’espace plus agréables en pouvant se connecter avec leurs proches sur Terre via WebEx, selon las empresas.

«[We] Imagínense un futuro en el que los astronautas puedan recurrir a la inteligencia artificial a bordo, en busca de información y ayuda y, en última instancia, de la empresa ”, dijo Aaron Rubenson, vicepresidente del programa Alexa de Amazon.

READ  WhatsApp se prepara para implementar soporte por chat de terceros

Pero Callisto aún no ha llegado. Hasta ahora, la NASA solo ha aprobado el uso de Callisto en Artemis 1 y no para futuras misiones tripuladas de Artemis.

Hu, subdirector del programa Orion, le dijo a CNN Business que la agencia espacial está «evaluando todo tipo de tecnología» e «investigando diferentes formas para permitir que los astronautas operen el vehículo de manera más eficiente».

«Definitivamente asistentes o asistentes virtuales e IA serán parte de esta evaluación [for future missions] – sean lo que sean, ya sea Callisto o lo que sea ”, dijo Hu.

Preguntas abiertas

Las compañías detrás de Callisto dijeron que el sistema ha sido probado exhaustivamente en el campo, pero quedan muchas preguntas sobre cómo funciona. Y si los futuros astronautas podrían algún día encontrar una ventaja, sigue siendo una incógnita. Ningún astronauta de Artemis ha probado aún el sistema, ni siquiera en tierra, según las empresas.

No se sabe, por ejemplo, qué tan bien funcionará el sistema de conferencias WebEx. Cabe señalar que los astronautas siempre han tenido la capacidad de comunicarse con personas en tierra utilizando los sistemas de comunicación existentes. Actualmente es posible configurar un chat de video con astronautas en el Estación Espacial Internacional, por ejemplo. Pero entrar en contacto con una nave espacial hipersónica que vuela a más de doscientas mil millas de la Tierra es difícil y, en momentos del viaje, será imposible.

Pero Cisco espera que WebEx pueda mejorar la capacidad de los astronautas para comunicarse y coordinarse con la gente en tierra, quizás utilizada para realizar reuniones y conferencias con múltiples participantes. En otras palabras, si se puede establecer una conexión adecuada.

READ  Los renders muestran el iPhone 15 Plus con biseles reducidos, puerto USB-C, isla dinámica y más

La conectividad a Internet cuestionable también presenta desafíos para Alexa. Los altavoces inteligentes de Amazon en los hogares necesitan una conexión a Internet para procesar consultas y recuperar información. Pero Rubenson dijo que la versión de Alexa utilizada para el sistema Callisto se ha reconfigurado para funcionar en gran parte fuera de línea, teóricamente capaz de brindar actualizaciones en vivo a futuros astronautas sobre su ruta de vuelo, por ejemplo, pero el sistema aún necesitaría una conexión si los astronautas solicitaran hasta -Información actualizada sobre eventos terrestres.

Alexa podrá acceder a datos de telemetría en tiempo real y responder ciertas preguntas sobre la misión, como qué tan rápido se mueve la cápsula. Sin embargo, la IA solo podrá controlar un aspecto del vuelo de Artemis 1: la iluminación de la cabina. Sin embargo, el equipo de Callisto prevé un futuro en el que el sistema podría configurarse para controlar otro hardware, como cámaras.

La carga útil de demostración de Callisto es una asociación entre Lockheed Martin, Amazon y Cisco.  La demostración de la tecnología Callisto se integrará en la nave espacial Orion de la NASA para la misión no tripulada Artemis I a la Luna.  Callisto utiliza Amazon Alexa y Webex de Cisco para probar y demostrar tecnología comercial para comunicaciones de voz, video y pizarra en el espacio profundo.

Si todo lo demás falla, la misión le dará a Amazon una ubicación estratégica del producto. Durante más de una década, la NASA ha promovido el uso comercial del espacio exterior como uno de sus principales objetivos. Y este proyecto viene con algunos de los respaldos de un impulso de relaciones públicas corporativas.

Amazon está implementando una nueva función para las personas que tienen un dispositivo habilitado para Alexa en casa, por ejemplo. Al usar el comando «Alexa, llévame a la luna», los usuarios podrán obtener actualizaciones en vivo sobre la misión Artemis 1.

«Queremos utilizar el papel de Alexa en esta misión para crear conciencia sobre el espacio y … en última instancia, inspirar a la próxima generación de entusiastas e ingenieros», dijo Rubenson.

READ  Type Arcade anunciado para su lanzamiento en 2023

Pero ya sea que Callisto sea potencialmente útil para misiones futuras o no, habrá cumplido un propósito. «Es una carga útil muy fotogénica», dijo Rob Chambers, director de estrategia espacial comercial civil en Lockheed Martin.

Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España. Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ciencia y tecnología

Nothing Phone (2) y los auriculares se benefician de la integración ChatGPT

Published

on

Nothing Phone (2) y los auriculares se benefician de la integración ChatGPT

Tras el lanzamiento de Nothing Ear y Ear(a) esta semana, Nothing también está lanzando una nueva actualización para Nothing Phone(2) que trae muchas actualizaciones, incluida la integración ChatGPT.

Nothing OS 2.5.5 se está implementando ahora en Phone (2), todavía no en Phone (1) y Phone (2a), con varias incorporaciones nuevas. Hay soporte para UltraHDR de Android (llamado «Ultra XDR» en los teléfonos Nothing), una opción de refuerzo de RAM, un nuevo widget de grabadora, un nuevo widget de batería y más.

Sin embargo, la mayor incorporación es la integración nativa de ChatGPT en los productos Nothing.

Nothing Phone (2) obtendrá algunos widgets con ChatGPT, uno para entrada de voz y el otro para texto, y habrá un nuevo botón en la captura de pantalla y en las ventanas emergentes del portapapeles para importar este contenido a ChatGPT.

Nada explica:

Se agregaron nuevos widgets de ChatGPT para iniciar ChatGPT en diferentes modos desde su pantalla de inicio para un acceso más rápido.

Se agregó un botón en la ventana emergente de captura de pantalla y portapapeles para pegar contenido directamente en una nueva conversación en ChatGPT.

La integración de Nothing's ChatGPT también se extiende a Ear y Ear(a). Debes estar emparejado con un teléfono Nothing, pero una vez emparejados, ambos auriculares pueden iniciar chats de voz con ChatGPT sin tener que quitar el teléfono.

EL El registro de cambios completo para Nothing OS 2.5.5 está disponible en el sitio web de Nothing Ahora.

Obtenga más información sobre Nada:

Sigue a Ben: Gorjeo/X, TemasY Instagram

Continue Reading

Ciencia y tecnología

VASA-1 de Microsoft puede simular una persona con una foto y una pista de audio

Published

on

VASA-1 de Microsoft puede simular una persona con una foto y una pista de audio
Agrandar / Una imagen de muestra de Microsoft para «VASA-1: caras parlantes realistas impulsadas por audio generadas en tiempo real».

El martes, Microsoft Research Asia reveló VASA-1, un modelo de IA capaz de crear un vídeo animado sincronizado de una persona hablando o cantando a partir de una única foto y una pista de audio existente. En el futuro, podría impulsar avatares virtuales que se muestren localmente y no requieran una transmisión de video, o permitir que cualquier persona con herramientas similares tome una foto de alguien encontrado en línea y les dé la sensación de que dice lo que quiere.

«Esto allana el camino para interacciones en tiempo real con avatares realistas que imitan los comportamientos conversacionales humanos», se lee en el resumen del estudio. trabajo de investigación adjunto titulado «VASA-1: Caras parlantes realistas generadas por audio generadas en tiempo real». Es obra de Sicheng Xu, Guojun Chen, Yu-Xiao Guo, Jiaolong Yang, Chong Li, Zhenyu Zang, Yizhong Zhang, Xin Tong y Baining Guo.

El marco VASA (abreviatura de “Visual Affective Skills Animator”) utiliza el aprendizaje automático para analizar una imagen estática y un clip de audio de voz. Luego es capaz de generar un vídeo realista con expresiones faciales precisas, movimientos de cabeza y sincronización de labios con audio. No clona ni simula voces (como otras investigaciones de Microsoft), sino que se basa en una entrada de audio existente que puede grabarse o hablarse especialmente para un propósito particular.

Microsoft afirma que el modelo supera significativamente a los métodos anteriores de animación de voz en términos de realismo, expresividad y eficacia. A nosotros, esto nos parece una mejora con respecto a los modelos de animación de un solo cuadro anteriores.

READ  Los mejores dispositivos nuevos del MWC 2024

Los esfuerzos de investigación de IA para animar una sola foto de una persona o personaje se remontan al menos a algunos años, pero más recientemente, los investigadores han trabajado para sincronizar automáticamente un video generado con una pista de audio. En febrero, un modelo de IA llamado EMO: Gesto de retrato viviente del grupo de investigación del Instituto de Computación Inteligente de Alibaba ha causado sensación con un enfoque similar al VASA-1 que puede sincronizar automáticamente una foto animada con una pista de audio proporcionada (lo llaman «Audio2Video»).

Capacitado en clips de YouTube.

Los investigadores de Microsoft entrenaron VASA-1 en el Conjunto de datos VoxCeleb2 creado en 2018 por tres investigadores de la Universidad de Oxford. Este conjunto de datos contiene “más de un millón de declaraciones de 6.112 celebridades”, según el sitio web VoxCeleb2, extraídas de vídeos subidos a YouTube. VASA-1 sería capaz de generar videos con una resolución de 512 x 512 píxeles a hasta 40 cuadros por segundo con una latencia mínima, lo que significa que podría usarse para aplicaciones en tiempo real como videoconferencias.

Para mostrar el modelo, Microsoft creó una página de investigación VASA-1 que muestra muchos ejemplos de vídeos de la herramienta en acción, incluidas personas cantando y hablando en sincronización con pistas de audio pregrabadas. Muestran cómo se puede controlar el modelo para expresar diferentes estados de ánimo o cambiar su apariencia. Los ejemplos también incluyen generaciones más elegantes, como Mona Lisa rapeando sobre una pista de audio de Anne Hathaway interpretando una Canción “Paparazzi” sobre Conan O'Brien.

READ  Actualizar un Apple Watch Series 3 es una pesadilla en 2021

Los investigadores dicen que, por razones de privacidad, cada fotografía de muestra en su página fue generada por IA. EstiloGAN2 o DALL-E 3 (aparte de la Mona Lisa). Pero está claro que la técnica también podría aplicarse a fotografías de personas reales, aunque es probable que funcione mejor si una persona parece una celebridad en el conjunto de datos de entrenamiento. Aún así, los investigadores dicen que su intención no es manipular a humanos reales.

«Exploramos la generación de habilidades visuales y afectivas para personajes virtuales e interactivos [sic], NO te hagas pasar por nadie en el mundo real. Esto es sólo una demostración de investigación y no hay planes de lanzamiento de productos ni API”, se lee en el sitio.

Si bien los investigadores de Microsoft promocionan posibles aplicaciones positivas, como mejorar la equidad educativa, mejorar la accesibilidad y brindar apoyo terapéutico, la tecnología también podría ser fácilmente utilizada indebidamente. Por ejemplo, podría permitir a las personas simular chats de vídeo, hacer que parezca que personas reales están diciendo cosas que en realidad nunca dijeron (especialmente cuando se combinan con una pista de voz clonada) o autorizar el acoso basado en una sola foto en las redes sociales.

En este momento, el video generado todavía parece imperfecto en algunos aspectos, pero podría ser bastante atractivo para algunas personas si no supieran qué esperar de la animación generada por IA. Los investigadores dicen que son conscientes de esto, razón por la cual no publican abiertamente el código que impulsa el modelo.

«Nos oponemos a cualquier comportamiento destinado a crear contenido engañoso o perjudicial para personas reales y nos gustaría aplicar nuestra técnica para avanzar en la detección de falsificaciones», escriben los investigadores. «Actualmente, los vídeos generados con este método todavía contienen artefactos identificables, y el análisis digital muestra que todavía hay una brecha para lograr la autenticidad de los vídeos reales».

READ  Se está implementando una actualización de UI Watch 5 en India para el Galaxy Watch 5

VASA-1 es sólo una demostración de investigación, pero Microsoft está lejos de ser el único grupo que desarrolla una tecnología similar. Si nos basamos en la historia reciente de la IA generativa, es potencialmente sólo cuestión de tiempo antes de que una tecnología similar se convierta en código abierto y esté disponible gratuitamente, y lo más probable es que su realismo siga mejorando con el tiempo.

Continue Reading

Ciencia y tecnología

El gamepad Kishi Ultra de Razer funciona con casi todo, incluidos algunos plegables

Published

on

El gamepad Kishi Ultra de Razer funciona con casi todo, incluidos algunos plegables

Razer acaba de lanzar el , sucesor del popular . Está repleto de mejoras, incluido un factor de forma más grande para acomodar dispositivos móviles más robustos como tabletas de 8 pulgadas e incluso algunos plegables. El controlador también ofrece compatibilidad con USB-C, por lo que debería funcionar con casi cualquier dispositivo, siempre que sea adecuado. Recuerde, incluso los productos Apple modernos.

Razer dice que el controlador fue «diseñado para ofrecer una experiencia de consola auténtica en la serie iPhone 15, iPad Mini y tabletas Android con pantallas de 8 pulgadas». Para ello, cuenta con la tecnología háptica Sensa HD patentada por la compañía, que incluye una bobina háptica cerca de cada mano para aumentar la inmersión. La compañía afirma que esta experiencia superará la que se encuentra con los controladores de consola tradicionales. El nuevo SDK de Interhaptics incluso permitirá a los desarrolladores «crear experiencias hápticas personalizadas».

Esta inmersión se mejora aún más con la integración con el sistema de iluminación Chroma RGB de Razer. Esto permite esquemas de iluminación personalizables, lo que permite a los jugadores llevar consigo «parte de la configuración de su sala de juegos». Más allá de la iluminación y la háptica, el controlador presenta los botones ABXY Mecha-Tactile patentados de la compañía y un D-pad de 8 direcciones. Hay disparadores de efecto Hall del tamaño de una consola, botones multifunción programables L4/R4 y joysticks de tamaño completo, completos con anillos antifricción. El factor de forma ampliado también significa que debería funcionar con la mayoría de los dispositivos sin tener que quitar la carcasa.

Una imagen que muestra el controlador Nexus y la aplicación.

Razer

El controlador puede acceder a la aplicación Nexus sin suscripción de Razer, que genera una asignación de botones personalizada para miles de juegos compatibles en iOS y Android. Esto significa que será una experiencia plug and play para la gran mayoría del contenido disponible, sin tener que manipular la configuración de control. Además, la aplicación Nexus permite a los usuarios grabar y compartir juegos.

READ  Los renders muestran el iPhone 15 Plus con biseles reducidos, puerto USB-C, isla dinámica y más

El Razer Kishi Ultra está disponible ahora y cuesta $150. Al controlador se le suma una versión actualizada del Kishi V2, que ahora se conecta a través de USB-C. Éste cuesta $100.

Esta publicación contiene enlaces afiliados; Si hace clic en dicho enlace y realiza una compra, podemos ganar una comisión.

Continue Reading

Trending