1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

Modelos de IA no amenazan existencialmente a la humanidad

22 de agosto de 2024

Un estudio plantea que los modelos lingüísticos de Inteligencia Artificial, como ChatGPT, no tienen la capacidad de aprender ni adquirir habilidades nuevas sin antes haber recibido esas instrucciones explícitas.

Robot con un cerebro.
Según un nuevo estudio, los modelos de IA estarían bajo control.Imagen: Knut Niehus/CHROMORANGE/picture alliance

Los llamados grandes modelos lingüísticos (LLM, por sus siglas en inglés) de Inteligencia Artificial (IA) no suponen una amenaza existencial para la humanidad debido a que no tienen la capacidad de aprender de forma independiente, según afirma un estudio publicado en las actas de la 62ª reunión anual de la Association for Computational Linguistics.

En concreto, los científicos aseguran que los LLM, como ChatGPT, son incapaces de dominar nuevas habilidades sin antes haber recibido instrucciones explícitas para eso, por lo tanto, siguen siendo controlables, seguros o predecibles.

"La narrativa predominante de que este tipo de IA es una amenaza para la humanidad impide la adopción y el desarrollo generalizados de estas tecnologías, y además desvía la atención de los problemas genuinos que requieren nuestra atención", afirma el coautor del estudio Harish Tayyar Madabushi, en un comunicado de la Universidad de Bath.

Miedos infundados

El experto agrega que "el temor ha sido que, a medida que los modelos se hacen más y más grandes, estos serán capaces de resolver nuevos problemas que actualmente no podemos predecir, lo que plantea la amenaza de que estos modelos más grandes adquieran capacidades peligrosas, como el razonamiento y la planificación".

Tayyar Madabushi considera estos miedos infundados: "Nuestro estudio demuestra que el temor a que un modelo se vaya y haga algo completamente inesperado, innovador y potencialmente peligroso, no es válido".

Capacidades emergentes en los modelos

Algunos investigadores han estudiado la posibilidad de los LLM desarrollen de forma independiente lo que se conoce como capacidades emergentes. Por ejemplo, que uno de estos modelos de IA sea capaz de responder a preguntas sobre temas para los que no había sido programado o entrenado previamente.

Los científicos del reciente estudio pusieron a prueba las capacidades emergentes de cuatro LLM diferentes, entregándoles más información sobre diferentes temas y para realizar más tareas específicas.

En su investigación, no encontraron ninguna prueba de que estas capacidades emergentes implicaran pensamiento diferenciado o propio, o que se saliera del objetivo para el que los modelos habían sido programados.

Por lo tanto, sostiene Tayyar Madabushi, se demostró claramente la ausencia de capacidades de razonamiento complejo emergente en los LLM.

El problema es el mal uso de los usuarios

"Nuestros resultados no significan que la IA no sea una amenaza en absoluto", plantea en el informe la coautora Iryna Gurevych.

"Más bien, demostramos que la supuesta aparición de habilidades de pensamiento complejas asociadas a amenazas específicas no está respaldada por pruebas y que, después de todo, podemos controlar muy bien el proceso de aprendizaje de los LLM", agrega.

Sin embargo, la mayor amenaza relacionada con la IA sería más bien el mal uso que los humanos están explotando con los modelos de IA. Por ejemplo, la creación de noticias falsas o el riesgo de fraude.

Por tanto, concluye Gurevych, las investigaciones futuras "deberían centrarse en otros riesgos que plantean los modelos, como su potencial para ser utilizados para generar noticias falsas".

Editado por José Urrejola, con información de IFL Science, Science Alert y Universidad de Bath

 

Ir a la siguiente sección Descubra más