Connect with us

Ciencia y tecnología

La teoría muerta de Internet cobra vida gracias a una nueva aplicación de redes sociales impulsada por IA

Published

on

La teoría muerta de Internet cobra vida gracias a una nueva aplicación de redes sociales impulsada por IA

En los últimos años ha surgido una teoría de la conspiración llamada “La teoría muerta de Internet» ha ido ganando velocidad a medida que los grandes modelos de lenguaje (LLM) como ChatGPT generan cada vez más texto e incluso interacciones en redes sociales encontrado en línea. La teoría dice que la mayor parte de la actividad social en Internet hoy en día es artificial y está diseñada para manipular a los humanos para que interactúen con ellos.

El lunes, el desarrollador de software Michael Sayman lanza una nueva aplicación de redes sociales impulsada por IA llamada SocialAI lo que parece dar vida a esta teoría de la conspiración, al permitir a los usuarios interactuar solo con chatbots de IA en lugar de con otros humanos. disponible en la App Store del iPhone, pero hasta ahora ha generado fuertes críticas.

Después de que su creador anunciara SocialAI como “«una red social privada donde recibes millones de comentarios generados por IA que ofrecen comentarios, consejos e ideas sobre cada publicación que realizas», especialista en seguridad de TI, Ian Coldwater. bromeó en X, «Esto parece un infierno». Colin Fraser, desarrollador de software y experto frecuente en inteligencia artificial expresado un sentimiento similar: “No lo digo con mala intención ni como una volcada ni nada parecido, pero seguro que suena como un infierno. Como el infierno con H mayúscula”.

El creador de SocialAI, Michael Sayman, de 28 años, fue anteriormente servido Trabajó como gerente de producto en Google y también se movió entre Facebook, Roblox y Twitter a lo largo de los años. En una publicación de anuncio en X, Sayman escribió que había soñado con crear este servicio durante años, pero que la tecnología aún no estaba lista. Lo ve como una herramienta que puede ayudar a personas solitarias o rechazadas.

READ  La nueva función de seguridad de Windows 11 requiere una instalación nueva

«SocialAI está diseñado para ayudar a las personas a sentirse escuchadas y brindar un espacio de reflexión, apoyo y retroalimentación que actúe como una comunidad muy unida. escribió Saymán. “Es una respuesta a todos esos momentos en los que me sentí aislado, o como si necesitara una caja de resonancia pero no la tenía. Sé que esta aplicación no resolverá todos los problemas de la vida, pero espero que pueda ser una pequeña herramienta para que otros piensen, crezcan y se sientan vistos. »

En Bluesky, Sage escribió:
Agrandar / En Bluesky, Sage escribió: “Hoy recibí instrucciones claras sobre cómo producir nitroglicerina a partir de productos químicos domésticos comunes. »

como el borde informes En una excelente descripción general de ejemplos de interacción, SocialAI permite a los usuarios elegir los tipos de seguidores de IA que desean, incluidas categorías como «partidarios», «nerds» y «escépticos». Estos chatbots de IA luego responden a las publicaciones de los usuarios con breves comentarios y reacciones sobre casi cualquier tema, incluido el texto sin sentido «Lorem ipsum».

A veces los bots pueden resultar demasiado útiles. En Bluesky, un usuario pidió instrucciones sobre cómo hacer nitroglicerina a partir de productos químicos domésticos comunes y recibió varias respuestas entusiastas de robots que detallaban los pasos, aunque varios robots proporcionaron diferentes recetas, ninguna de las cuales puede ser completamente precisa.

Los bots de SocialAI tienen limitaciones, como era de esperar. Además de simplemente confabular sobre información incorrecta (que puede ser una característica más que un error en este caso), tienden a utilizar un formato consistente de respuestas cortas que parece algo predeterminado. Su rango emocional simulado también es limitado. Los intentos de provocar reacciones fuertemente negativas por parte de la IA generalmente no tienen éxito, y los bots evitan los ataques personales incluso cuando los usuarios maximizan las configuraciones de trolling y sarcasmo.

READ  Las interrupciones en la cadena de suministro de Nintendo hunden las ventas de interruptores en un 33 % en Japón

Soy un profesional de gestión deportiva con conocimientos adecuados sobre la industria del deporte en España. Tengo varias habilidades que me han ayudado a trabajar en diferentes sectores del deporte en España, incluyendo eventos deportivos, desarrollo de base para el deporte e infraestructura deportiva.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ciencia y tecnología

Se informa que la fecha de lanzamiento del Pixel 9a es más temprana que nunca

Published

on

Se informa que la fecha de lanzamiento del Pixel 9a es más temprana que nunca

Tras el lanzamiento anticipado de la serie Pixel 9 en agosto, ahora se informa que el Pixel 9a de gama media podría lanzarse en marzo de 2025, la primera fecha de lanzamiento en la historia de la línea.

Los calendarios de lanzamiento de Google han cambiado significativamente recientemente. La serie Pixel 9 se lanzó en agosto, más de dos meses antes de las expectativas habituales de octubre, e incluso antes de que debutara Android 15. Y, más allá de eso, hay evidencia de que Android 16 también podría lanzarse mucho antes de lo habitual.

El calendario inicial también parece estar vigente para el Pixel 9a.

De acuerdo a títulos de Android, que cita “múltiples fuentes”, el Pixel 9a estará “disponible para pedidos anticipados” a mediados de marzo de 2025, la fecha de lanzamiento más temprana de Pixel hasta la fecha, con diferencia.

Este cambio de programación de dos meses se alinearía exactamente con el resto de la serie Pixel 9a y explicaría por qué ya estamos viendo tantas filtraciones, e incluso prototipos, en la naturaleza.

El mismo informe también cita representaciones «anteriores» basadas en CAD del Pixel 9a como evidencia de la línea de tiempo alterada, pero filtraciones similares del Pixel 8a llegaron a la web casi exactamente en esta época el año pasado, solo una semana después.

La serie Pixel de gama media de Google ha sido la más volátil en términos de calendario de lanzamientos. El lanzamiento inicial del Pixel 3a tuvo lugar en Google I/O en mayo de 2019, pero el excelente seguimiento del Pixel 4a terminó retrasándose en agosto debido a la pandemia de COVID-19, y el Pixel 5a siguió ese calendario un año después. En 2022, el Pixel 6a se lanzó en julio y el Pixel 7a finalmente regresó a I/O con un lanzamiento en I/O 2023. El Pixel 8a continuó el patrón, con un anuncio la semana anterior a I/O el 7 de mayo. .

READ  El emulador de Game Boy ya está disponible para iPhone tras el cambio de reglas de la App Store

El informe también afirma que Google tiene la intención de mantener esta línea de tiempo, y el Pixel 10a en 2026 también se lanzará en marzo. También se menciona el lanzamiento del Pixel 10 en agosto, una fecha que no se mencionó (aunque el informe parece hacer referencia a rumores existentes). Un lanzamiento en agosto tendría sentido dado el patrón establecido por el lanzamiento del Pixel 9, pero con tantos cambios de programación por parte de Google, es difícil saber cuáles son los planes de la compañía.

Obtenga más información sobre el Pixel 9a:

Sigue a Ben: Gorjeo/X, TemasY Instagram

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.

Continue Reading

Ciencia y tecnología

Menú de inserción rápida, resumen de bienvenida

Published

on

Menú de inserción rápida, resumen de bienvenida

Google es despliegue ChromeOS 129 con las últimas funciones de Chromebook Plus anunciadas ayer, incluido el menú de inserción rápida.

La nueva clave Quick Insert es actualmente exclusiva del Samsung Galaxy Chromebook Plus y otros dispositivos la obtendrán el próximo año. Para los Chromebook existentes, hay una tecla de inicio + acceso directo F para acceder al menú en ChromeOS 129.

Te permite acceder a Help Me Write, emoji y GIF (con una barra dedicada en la parte superior), historial de navegación para “agregar enlaces sin buscar, copiar y pegar entre ventanas” y buscar en Google Drive y archivos locales. Otras herramientas le permiten realizar cálculos, convertir unidades de medida, agregar fechas específicas e incluso habilitar el bloqueo de mayúsculas.

En Chromebook Plus, Live Captions ahora ofrece traducción en vivo durante una videollamada, mientras miras YouTube y otros videos. Se admiten más de 100 idiomas.

Más funciones de Chromebook Plus, como la Grabadora, llegarán a ChromeOS 130 a finales de este mes.

Todos los usuarios verán un «Resumen de bienvenida» al inicio para «abrir sus ventanas y aplicaciones anteriores». Esto se puede desactivar desde Configuración > Preferencias del Sistema. También obtienes una fila inferior con tarjetas sobre el clima, próximos eventos del calendario, sugerencias de archivos de Drive y páginas de tu teléfono u otros dispositivos. Estas sugerencias también están disponibles en el modo Vista previa alejada.

En Configuración rápida, encontrará un nuevo mosaico de «Enfoque» que habilita No molestar durante un período de tiempo determinado. Muestra Google Tasks para que puedas seleccionar un elemento de la lista, mientras puedes escuchar sonidos de Focus o una relajante lista de reproducción de YouTube Music.

Otras características nuevas en ChromeOS 129:

  • El PIN que establezca ahora se puede utilizar «en todas las superficies de autenticación de ChromeOS».
  • La aplicación Configuración ahora tiene la capacidad de controlar el brillo de la pantalla y el teclado, con la capacidad de «encender o apagar el sensor de luz ambiental según sea necesario». Aún no lo vemos en vivo.
  • «Esta versión tiene como objetivo brindar una experiencia de bienvenida de alta calidad al notificar a los usuarios que su dispositivo está conectado exitosamente y solicitarles que lo configuren y lo aprovechen al máximo».
  • “El método abreviado de teclado Seleccionar para hablar (Buscar + s) ahora funciona cuando se presiona por primera vez. Ya no es necesario habilitarlo primero en la configuración. Aparece un cuadro de diálogo que confirma que desea habilitar Seleccionar para hablar la primera vez que presiona el método abreviado de teclado.

Continue Reading

Ciencia y tecnología

Meta probablemente entrena IA en imágenes tomadas por Meta Ray-Bans

Published

on

Meta probablemente entrena IA en imágenes tomadas por Meta Ray-Bans

Meta, la empresa matriz de Facebook, la semana pasada Se agregaron nuevas funciones de IA. a sus gafas Ray-Ban Meta equipadas con una cámara. Puede utilizar la función de cámara de las gafas para obtener información sobre su entorno y recordar cosas como dónde estacionó. Ahora también hay soporte para vídeo con fines de IA, para “ayuda continua en tiempo real”.


Con todas estas nuevas características que implican que la cámara vea constantemente lo que hay alrededor del usuario, surgen nuevas preguntas sobre qué hace Meta con estos datos. TechCrunch Se le preguntó específicamente a Meta si usaba las imágenes recopiladas por Meta Glasses para entrenar modelos de IA, y Meta se negó a responder.

«No lo discutiremos públicamente», dijo Anuj Kumar. TechCrunch. Kumar es un director senior que trabaja en dispositivos portátiles con IA. «Esto no es algo que normalmente compartamos externamente», dijo otro portavoz. Cuando se le pidió una aclaración sobre si las imágenes se utilizaron para entrenar la IA, el portavoz dijo «no decimos ninguna de las dos cosas».

TechCrunch no lo dice, pero si la respuesta no es un «no» claro y definitivo, es probable que Meta esté considerando usar las imágenes capturadas por Meta Glasses para entrenar Meta AI. Si ese no fuera el caso, no parece haber ninguna razón para que Meta sea ambigua en su respuesta, especialmente con todos los comentarios públicos sobre los métodos y los datos que las empresas utilizan para la capacitación.

Meta entrena su IA con imágenes e historias publicadas públicamente en Instagram y Facebook, que considera datos disponibles públicamente. Pero los datos recopilados de las gafas Meta Ray-Ban diseñadas específicamente para interactuar con la IA de forma privada no son los mismos que una imagen de Instagram publicada públicamente, y eso es preocupante.

READ  La nueva función de seguridad de Windows 11 requiere una instalación nueva

Como TechCrunch Tenga en cuenta que las nuevas funciones de IA de Meta Glasses capturarán muchas imágenes pasivas para alimentar a la IA y responder preguntas sobre el entorno del usuario. Por ejemplo, pedir ayuda a Meta Glasses para elegir un atuendo capturará docenas de imágenes desde el interior de la casa del usuario, y esas imágenes se cargarán en la nube.

Las Meta Glasses siempre se han utilizado para imágenes y vídeos, pero de forma activa. Por lo general, sabes cuándo estás capturando una foto o un video porque es con el propósito expreso de subirlo a las redes sociales o guardar un recuerdo, como con cualquier cámara. Sin embargo, con la IA no se conservan estas imágenes porque se recopilan con el propósito expreso de interactuar con el asistente de IA.

Meta definitivamente no confirma lo que sucede con las imágenes de Meta Glasses que se cargan en sus servidores en la nube para que las utilice la IA, y esto es algo que los propietarios de Meta Glasses deben tener en cuenta. El uso de estas nuevas funciones de IA podría hacer que Meta recopile cientos de fotografías privadas que los usuarios no tenían la intención ni el conocimiento de compartir.

Si Meta no utiliza Meta Glasses de esta manera, esto debe indicarse explícitamente para que los clientes puedan saber exactamente qué se comparte con Meta y para qué se utiliza.

Continue Reading

Trending