Meta: Cuando la Inteligencia Artificial no diferencia verdad de mentira

0
574
PBC -comparte

El pasado 15 de noviembre, Meta presentó un nuevo gran modelo de lenguaje denominado Galáctica, diseñado para ayudar a los científicos. Sin embargo, en vez del big bang que Meta esperaba, Galáctica ha desaparecido después de tres días de intensas críticas. El jueves de la misma semana, después de animar a todos a probarla, la empresa eliminó la demostración pública que había lanzado.

El paso en falso de Meta, y su arrogancia, muestran una vez más que las Big Tech tienen un punto débil ante las fuertes limitaciones de los grandes modelos de lenguaje. Existe una gran cantidad de investigaciones que destacan los defectos de esta tecnología, incluida su tendencia a reproducir prejuicios y afirmar falsedades como hechos reales.

Sin embargo, Meta y otras empresas que trabajan con grandes modelos de lenguaje, incluido Google, no se lo han tomado en serio.

Galáctica es un gran modelo de lenguaje para la ciencia, entrenado en 48 millones de ejemplos de artículos científicos, sitios web, libros de texto, notas de conferencias y enciclopedias. Meta promocionó su modelo como un atajo para investigadores y estudiantes. En palabras de la empresa, Galáctica «puede resumir trabajos académicos, resolver problemas matemáticos, generar artículos de tipo wiki, escribir código científico, anotar moléculas y proteínas, y mucho más».

No obstante, ese barniz brillante se desgastó rápidamente. Como todos los modelos de lenguaje, Galáctica es un bot descerebrado que no puede distinguir los hechos de la ficción. En cuestión de horas, los científicos estaban compartiendo sus resultados sesgados e incorrectos en las redes sociales.

«Estoy asombrado, pero no sorprendido por este nuevo esfuerzo», indica el profesor de la Universidad de Washington (EE UU) Chirag Shah, que estudia tecnologías de investigación. «Cuando se trata de hacer demostraciones de estas cosas, se ven fantásticas, mágicas e inteligentes. Sin embargo, la gente no parece entender por ahora que, en principio, esas cosas no pueden funcionar de la forma en la que son promocionadas«.

Cuando se le pidió una aclaración sobre por qué había eliminado la demostración, Meta señaló a MIT Technology Review un tuit que ponía: «Gracias a todos por probar la demostración del modelo Galáctica. Agradecemos los comentarios que hemos recibido hasta ahora de la comunidad y hemos detenido la demostración por ahora. Nuestros modelos están disponibles para los investigadores que desean aprender más sobre este trabajo y reproducir los resultados en un artículo».

Uno de los problemas fundamentales de Galáctica es que no es capaz de distinguir entre la verdad y la mentira, un requisito básico para un modelo de lenguaje diseñado para generar texto científico. Los usuarios descubrieron que inventaba artículos falsos (a veces atribuyéndolos a autores reales) y generaba artículos tipo wiki sobre la historia de los osos en el espacio con la misma facilidad que producía publicaciones sobre complejos de proteínas y la velocidad de la luz. Resulta sencillo detectar la ficción cuando se trata de los osos espaciales, pero es más complicado cuando se trata de un tema del que los usuarios no saben demasiado.

De este modo, un gran número de científicos se opusieron. El director del Instituto Max Planck para Sistemas Inteligentes de Alemania, Michael Black, que trabaja en aprendizaje profundo, tuiteó: «En todos los intentos, el modelo era erróneo o sesgado, pero parecía correcto y autorizado. Creo que es peligroso».

Fuente 

Print Friendly, PDF & Email

Leave a reply

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.