Connect with us

Ciencia y tecnología

Ahora que las máquinas pueden aprender, ¿pueden desaprender?

Published

on

Andriy Onufriyenko | imágenes falsas

Empresas de todo tipo utilizan aprendizaje automático analizar los deseos, disgustos o rostros de las personas. Algunos investigadores ahora se están haciendo una pregunta diferente: ¿cómo hacer que las máquinas olviden?

Un campo incipiente de la informática llamado máquina desaprender está buscando formas de inducir amnesia selectiva en inteligencia artificial Software. El objetivo es eliminar todos los rastros de una persona en particular o un punto de datos de un sistema de aprendizaje automático, sin afectar su rendimiento.

Si se hace práctico, el concepto podría dar a las personas más control sobre sus datos y el valor que se deriva de ellos. Si bien los usuarios ya pueden pedir a algunas empresas que eliminen los datos personales, por lo general desconocen qué algoritmos ha ayudado a clasificar o entrenar su información. El desaprendizaje automático podría permitir que una persona se llevara tanto sus datos como la capacidad de una empresa para beneficiarse de ellos.

Si bien es intuitivo para cualquiera que se arrepienta de lo que compartieron en línea, esta noción de amnesia artificial requiere nuevas ideas en informática. Las empresas gastan millones de dólares en capacitar algoritmos de aprendizaje automático para reconocer rostros o clasificar publicaciones en redes sociales porque los algoritmos a menudo pueden resolver un problema más rápido que los codificadores humanos por sí solos. Pero una vez entrenado, un sistema de aprendizaje automático no se manipula fácilmente, o incluso entendido. La forma convencional de eliminar la influencia de un punto de datos en particular es reconstruir un sistema desde cero, un ejercicio potencialmente costoso. «Esta investigación tiene como objetivo encontrar un terreno común», dice Aaron Roth, profesor de la Universidad de Pensilvania que trabaja en el desaprendizaje automático. «¿Podemos eliminar toda influencia de los datos de alguien cuando solicitan su eliminación, evitando al mismo tiempo el costo total del reciclaje desde cero?» «

READ  Apple lanza la primera versión beta pública de iOS 17.3 con protección de dispositivo robado

El trabajo en el desaprendizaje automático se debe en parte a la creciente atención a las formas en que la inteligencia artificial puede erosionar la privacidad. Los reguladores de datos de todo el mundo han tenido durante mucho tiempo el poder de obligar a las empresas a suprimir la información obtenida ilegalmente. Ciudadanos de determinadas localidades, como la ME y California, incluso tiene derecho a pedirle a una empresa que elimine sus datos si cambia de opinión sobre lo que ha revelado. Más recientemente, los reguladores de EE. UU. Y la UE han dicho que los propietarios de sistemas de inteligencia artificial a veces necesitan ir un paso más allá: eliminar un sistema que haya sido capacitado en datos confidenciales.

El año pasado, el regulador de datos del Reino Unido empresas informadas que algunos software de aprendizaje automático pueden estar sujetos a derechos de GDPR, como la eliminación de datos, porque un sistema de inteligencia artificial puede contener datos personales. Los investigadores de seguridad han demostrado que los algoritmos a veces pueden verse obligados a revelar datos confidenciales utilizados en su creación. A principios de este año, la Comisión Federal de Comercio de los Estados Unidos la startup de reconocimiento facial forzado Paravision para eliminar una colección de fotos de rostros obtenidos incorrectamente y algoritmos de aprendizaje automático entrenados con ellos. El comisionado de la FTC, Rohit Chopra, elogió la nueva táctica de aplicación de la ley como una forma de obligar a una empresa de ruptura de datos a «renunciar a los frutos de su engaño».

La pequeña área de la investigación sobre el desaprendizaje automático se enfrenta a algunas de las cuestiones prácticas y matemáticas que surgen de estos cambios regulatorios. Los investigadores han demostrado que pueden hacer que los algoritmos de aprendizaje automático se olviden bajo ciertas condiciones, pero la técnica aún no está lista para el horario de máxima audiencia. “Como es común en un dominio joven, existe una brecha entre lo que este dominio aspira a hacer y lo que sabemos hacer ahora”, dice Roth.

READ  WhatsApp está trabajando en su propio sistema inalámbrico para compartir archivos

Un enfoque prometedor propuesto en 2019 por investigadores de las universidades de Toronto y Wisconsin-Madison es separar los datos de origen de un nuevo proyecto de aprendizaje automático en varias partes. Luego, cada uno se procesa por separado, antes de que los resultados se combinen en el modelo final de aprendizaje automático. Si es necesario olvidar un punto de datos más adelante, solo es necesario volver a procesar una fracción de los datos de entrada originales. Se ha demostrado que el enfoque funciona con datos de compras en línea y una colección de más de un millón de fotos.

Roth y sus asociados en Penn, Harvard y Stanford recientemente demostró una falla en este enfoque, mostrando que el sistema de desaprendizaje colapsaría si las solicitudes de eliminación enviadas llegaran en un orden particular, ya sea por casualidad o por un actor malintencionado. También mostraron cómo se podría aliviar el problema.

Gautam Kamath, profesor de la Universidad de Waterloo que también trabaja en el desaprendizaje, dice que el problema que encontró y resolvió el proyecto es un ejemplo de las muchas preguntas abiertas que quedan sobre cómo hacer que el desaprendizaje automático sea algo más que una simple curiosidad de laboratorio. Su propio grupo de investigación fue explorador cómo se reduce la precisión de un sistema al desaprender sucesivamente varios puntos de datos.

Kamath también está interesado en encontrar formas para que una empresa demuestre, o un regulador verifique, que un sistema realmente ha olvidado lo que se suponía que debía desaprender. «Siento que está un poco más lejos, pero tal vez terminen teniendo oyentes para estas cosas», dice.

READ  Complementos de ChatGPT y despliegue beta de navegación web para usuarios Plus

Es probable que surjan razones regulatorias para explorar la posibilidad del desaprendizaje automático a medida que la FTC y otros analicen más de cerca el poder de los algoritmos. Reuben Binns, profesor de la Universidad de Oxford que estudia la protección de datos, dice que la idea de que las personas deberían tener voz en el destino y los frutos de sus datos ha crecido en los últimos años en Estados Unidos y Europa.

Se necesitará un trabajo técnico virtuoso antes de que las empresas de tecnología puedan implementar el desaprendizaje automático como una forma de dar a las personas más control sobre el destino algorítmico de sus datos. Incluso entonces, es posible que la tecnología no cambie mucho los riesgos de privacidad en la era de la IA.

Confidencialidad diferencial, una ingeniosa técnica para establecer límites matemáticos sobre lo que un sistema puede revelar sobre una persona, proporciona una comparación útil. Apple, Google y Microsoft celebran la tecnología, pero se usa con relativa poca frecuencia y los peligros para la privacidad son siempre numerosos.

Binns dice que si bien puede ser realmente útil, «en otros casos, es más algo que una empresa hace para mostrar su innovación». Sospecha que el desaprendizaje automático puede resultar similar, más una demostración de perspicacia técnica que un cambio importante en la protección de datos. Incluso cuando las máquinas aprenden a olvidar, los usuarios deberán recordar tener cuidado con quién comparten datos.

Esta historia apareció originalmente en wired.com.

Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España. Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ciencia y tecnología

Nothing Phone (2) y los auriculares se benefician de la integración ChatGPT

Published

on

Nothing Phone (2) y los auriculares se benefician de la integración ChatGPT

Tras el lanzamiento de Nothing Ear y Ear(a) esta semana, Nothing también está lanzando una nueva actualización para Nothing Phone(2) que trae muchas actualizaciones, incluida la integración ChatGPT.

Nothing OS 2.5.5 se está implementando ahora en Phone (2), todavía no en Phone (1) y Phone (2a), con varias incorporaciones nuevas. Hay soporte para UltraHDR de Android (llamado «Ultra XDR» en los teléfonos Nothing), una opción de refuerzo de RAM, un nuevo widget de grabadora, un nuevo widget de batería y más.

Sin embargo, la mayor incorporación es la integración nativa de ChatGPT en los productos Nothing.

Nothing Phone (2) obtendrá algunos widgets con ChatGPT, uno para entrada de voz y el otro para texto, y habrá un nuevo botón en la captura de pantalla y en las ventanas emergentes del portapapeles para importar este contenido a ChatGPT.

Nada explica:

Se agregaron nuevos widgets de ChatGPT para iniciar ChatGPT en diferentes modos desde su pantalla de inicio para un acceso más rápido.

Se agregó un botón en la ventana emergente de captura de pantalla y portapapeles para pegar contenido directamente en una nueva conversación en ChatGPT.

La integración de Nothing's ChatGPT también se extiende a Ear y Ear(a). Debes estar emparejado con un teléfono Nothing, pero una vez emparejados, ambos auriculares pueden iniciar chats de voz con ChatGPT sin tener que quitar el teléfono.

EL El registro de cambios completo para Nothing OS 2.5.5 está disponible en el sitio web de Nothing Ahora.

Obtenga más información sobre Nada:

Sigue a Ben: Gorjeo/X, TemasY Instagram

Continue Reading

Ciencia y tecnología

VASA-1 de Microsoft puede simular una persona con una foto y una pista de audio

Published

on

VASA-1 de Microsoft puede simular una persona con una foto y una pista de audio
Agrandar / Una imagen de muestra de Microsoft para «VASA-1: caras parlantes realistas impulsadas por audio generadas en tiempo real».

El martes, Microsoft Research Asia reveló VASA-1, un modelo de IA capaz de crear un vídeo animado sincronizado de una persona hablando o cantando a partir de una única foto y una pista de audio existente. En el futuro, podría impulsar avatares virtuales que se muestren localmente y no requieran una transmisión de video, o permitir que cualquier persona con herramientas similares tome una foto de alguien encontrado en línea y les dé la sensación de que dice lo que quiere.

«Esto allana el camino para interacciones en tiempo real con avatares realistas que imitan los comportamientos conversacionales humanos», se lee en el resumen del estudio. trabajo de investigación adjunto titulado «VASA-1: Caras parlantes realistas generadas por audio generadas en tiempo real». Es obra de Sicheng Xu, Guojun Chen, Yu-Xiao Guo, Jiaolong Yang, Chong Li, Zhenyu Zang, Yizhong Zhang, Xin Tong y Baining Guo.

El marco VASA (abreviatura de “Visual Affective Skills Animator”) utiliza el aprendizaje automático para analizar una imagen estática y un clip de audio de voz. Luego es capaz de generar un vídeo realista con expresiones faciales precisas, movimientos de cabeza y sincronización de labios con audio. No clona ni simula voces (como otras investigaciones de Microsoft), sino que se basa en una entrada de audio existente que puede grabarse o hablarse especialmente para un propósito particular.

Microsoft afirma que el modelo supera significativamente a los métodos anteriores de animación de voz en términos de realismo, expresividad y eficacia. A nosotros, esto nos parece una mejora con respecto a los modelos de animación de un solo cuadro anteriores.

READ  Cómo proteger tu Smart TV

Los esfuerzos de investigación de IA para animar una sola foto de una persona o personaje se remontan al menos a algunos años, pero más recientemente, los investigadores han trabajado para sincronizar automáticamente un video generado con una pista de audio. En febrero, un modelo de IA llamado EMO: Gesto de retrato viviente del grupo de investigación del Instituto de Computación Inteligente de Alibaba ha causado sensación con un enfoque similar al VASA-1 que puede sincronizar automáticamente una foto animada con una pista de audio proporcionada (lo llaman «Audio2Video»).

Capacitado en clips de YouTube.

Los investigadores de Microsoft entrenaron VASA-1 en el Conjunto de datos VoxCeleb2 creado en 2018 por tres investigadores de la Universidad de Oxford. Este conjunto de datos contiene “más de un millón de declaraciones de 6.112 celebridades”, según el sitio web VoxCeleb2, extraídas de vídeos subidos a YouTube. VASA-1 sería capaz de generar videos con una resolución de 512 x 512 píxeles a hasta 40 cuadros por segundo con una latencia mínima, lo que significa que podría usarse para aplicaciones en tiempo real como videoconferencias.

Para mostrar el modelo, Microsoft creó una página de investigación VASA-1 que muestra muchos ejemplos de vídeos de la herramienta en acción, incluidas personas cantando y hablando en sincronización con pistas de audio pregrabadas. Muestran cómo se puede controlar el modelo para expresar diferentes estados de ánimo o cambiar su apariencia. Los ejemplos también incluyen generaciones más elegantes, como Mona Lisa rapeando sobre una pista de audio de Anne Hathaway interpretando una Canción “Paparazzi” sobre Conan O'Brien.

READ  La CPU AMD Ryzen 7 5800X3D 3D V-Cache se enfría después de retirarla

Los investigadores dicen que, por razones de privacidad, cada fotografía de muestra en su página fue generada por IA. EstiloGAN2 o DALL-E 3 (aparte de la Mona Lisa). Pero está claro que la técnica también podría aplicarse a fotografías de personas reales, aunque es probable que funcione mejor si una persona parece una celebridad en el conjunto de datos de entrenamiento. Aún así, los investigadores dicen que su intención no es manipular a humanos reales.

«Exploramos la generación de habilidades visuales y afectivas para personajes virtuales e interactivos [sic], NO te hagas pasar por nadie en el mundo real. Esto es sólo una demostración de investigación y no hay planes de lanzamiento de productos ni API”, se lee en el sitio.

Si bien los investigadores de Microsoft promocionan posibles aplicaciones positivas, como mejorar la equidad educativa, mejorar la accesibilidad y brindar apoyo terapéutico, la tecnología también podría ser fácilmente utilizada indebidamente. Por ejemplo, podría permitir a las personas simular chats de vídeo, hacer que parezca que personas reales están diciendo cosas que en realidad nunca dijeron (especialmente cuando se combinan con una pista de voz clonada) o autorizar el acoso basado en una sola foto en las redes sociales.

En este momento, el video generado todavía parece imperfecto en algunos aspectos, pero podría ser bastante atractivo para algunas personas si no supieran qué esperar de la animación generada por IA. Los investigadores dicen que son conscientes de esto, razón por la cual no publican abiertamente el código que impulsa el modelo.

«Nos oponemos a cualquier comportamiento destinado a crear contenido engañoso o perjudicial para personas reales y nos gustaría aplicar nuestra técnica para avanzar en la detección de falsificaciones», escriben los investigadores. «Actualmente, los vídeos generados con este método todavía contienen artefactos identificables, y el análisis digital muestra que todavía hay una brecha para lograr la autenticidad de los vídeos reales».

READ  Los Squishmallows gigantes Pokémon Pikachu y Piplup llegan a Amazon

VASA-1 es sólo una demostración de investigación, pero Microsoft está lejos de ser el único grupo que desarrolla una tecnología similar. Si nos basamos en la historia reciente de la IA generativa, es potencialmente sólo cuestión de tiempo antes de que una tecnología similar se convierta en código abierto y esté disponible gratuitamente, y lo más probable es que su realismo siga mejorando con el tiempo.

Continue Reading

Ciencia y tecnología

El gamepad Kishi Ultra de Razer funciona con casi todo, incluidos algunos plegables

Published

on

El gamepad Kishi Ultra de Razer funciona con casi todo, incluidos algunos plegables

Razer acaba de lanzar el , sucesor del popular . Está repleto de mejoras, incluido un factor de forma más grande para acomodar dispositivos móviles más robustos como tabletas de 8 pulgadas e incluso algunos plegables. El controlador también ofrece compatibilidad con USB-C, por lo que debería funcionar con casi cualquier dispositivo, siempre que sea adecuado. Recuerde, incluso los productos Apple modernos.

Razer dice que el controlador fue «diseñado para ofrecer una experiencia de consola auténtica en la serie iPhone 15, iPad Mini y tabletas Android con pantallas de 8 pulgadas». Para ello, cuenta con la tecnología háptica Sensa HD patentada por la compañía, que incluye una bobina háptica cerca de cada mano para aumentar la inmersión. La compañía afirma que esta experiencia superará la que se encuentra con los controladores de consola tradicionales. El nuevo SDK de Interhaptics incluso permitirá a los desarrolladores «crear experiencias hápticas personalizadas».

Esta inmersión se mejora aún más con la integración con el sistema de iluminación Chroma RGB de Razer. Esto permite esquemas de iluminación personalizables, lo que permite a los jugadores llevar consigo «parte de la configuración de su sala de juegos». Más allá de la iluminación y la háptica, el controlador presenta los botones ABXY Mecha-Tactile patentados de la compañía y un D-pad de 8 direcciones. Hay disparadores de efecto Hall del tamaño de una consola, botones multifunción programables L4/R4 y joysticks de tamaño completo, completos con anillos antifricción. El factor de forma ampliado también significa que debería funcionar con la mayoría de los dispositivos sin tener que quitar la carcasa.

Una imagen que muestra el controlador Nexus y la aplicación.

Razer

El controlador puede acceder a la aplicación Nexus sin suscripción de Razer, que genera una asignación de botones personalizada para miles de juegos compatibles en iOS y Android. Esto significa que será una experiencia plug and play para la gran mayoría del contenido disponible, sin tener que manipular la configuración de control. Además, la aplicación Nexus permite a los usuarios grabar y compartir juegos.

READ  Face ID afuera, "Apple Ring" adentro! ¿Podría Google guardar el secreto de la próxima gran innovación del iPhone?

El Razer Kishi Ultra está disponible ahora y cuesta $150. Al controlador se le suma una versión actualizada del Kishi V2, que ahora se conecta a través de USB-C. Éste cuesta $100.

Esta publicación contiene enlaces afiliados; Si hace clic en dicho enlace y realiza una compra, podemos ganar una comisión.

Continue Reading

Trending