Apple dice que su modelo OpenELM no ejecuta Apple Intelligence en medio de la controversia de YouTube

Apple dice que su modelo OpenELM no ejecuta Apple Intelligence en medio de la controversia de YouTube

En un panorama tecnológico en constante evolución, Apple ha estado en el centro de una controversia que ha captado la atención de la comunidad de desarrolladores y entusiastas de la inteligencia artificial. A principios de esta semana, una investigación reveló que Apple, junto a otros gigantes tecnológicos, utilizó subtítulos de YouTube para entrenar modelos de inteligencia artificial. Este hecho ha generado un extenso debate sobre la ética y la transparencia en el uso de datos para el desarrollo de tecnologías de inteligencia artificial.

El conjunto de datos utilizado por Apple consistió en más de 170,000 vídeos de creadores de contenido populares como MKBHD y Mr. Beast. A pesar de las sospechas y las especulaciones iniciales, Apple ha confirmado que su modelo de inteligencia artificial OpenELM no es impulsado por este conjunto de datos. En conversación con 9to5Mac, la compañía afirmó que OpenELM se creó específicamente para contribuir a la comunidad de investigación y promover el desarrollo de modelos de lenguaje de código abierto.

El papel de OpenELM

Apple describe a su modelo OpenELM como un “modelo de lenguaje abierto de última generación”. Sin embargo, la compañía ha sido clara al señalar que este modelo se elaboró para fines de investigación, y no tiene aplicación en sus funciones de inteligencia artificial actuales, incluidas las capacidades de Apple Intelligence.

¿Qué significa esto para Apple?

El hecho de que OpenELM no esté siendo utilizado para potenciar Apple Intelligence implica que los datos de “Subtítulos de YouTube” no están contribuyendo a la inteligencia artificial de Apple. En el pasado, la compañía ha declarado que sus modelos de inteligencia se entrenan utilizando datos con licencia y datos disponibles públicamente, pero no recoge datos de subtítulos de YouTube.

Por último, Apple ha afirmado que no tiene planes de crear nuevas versiones del modelo OpenELM, lo que ha llevado a cuestionar el futuro de este esfuerzo de código abierto por parte de la empresa.

Impacto de la controversia

La controversia ha puesto de relieve la creciente preocupación en torno al uso de datos en el entrenamiento de inteligencia artificial y las implicaciones éticas de utilizar contenido generado por usuarios sin su consentimiento explícito. Además, plantea interrogantes sobre cómo las empresas manejan el dilema de la privacidad mientras intentan innovar y ofrecer tecnologías avanzadas.

Como informado por Cable, empresas como Apple, Anthropic y NVIDIA han estado trabajando con este conjunto de datos, que forma parte de una colección más extensa de recursos llamada The Pile, desarrollada por la organización sin fines de lucro EleutherAI.

El futuro de la inteligencia artificial de Apple

La situación actual representa un desafío no solo para Apple, sino para toda la industria tecnológica. La necesidad de crear modelos de inteligencia artificial más éticos y responsables es inminente, y los consumidores demandan transparencia y responsabilidad de las compañías en el manejo de sus datos.

En resumen, dos preguntas fundamentales persisten: ¿Cómo se pueden utilizar de manera responsable los datos en el entrenamiento de modelos de inteligencia artificial? Y ¿qué pasos deben tomar las empresas para garantizar que respetan los derechos de los creadores de contenido de origen?

À propos de l'auteur :

Arnaud Chicoguapo

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x