La inteligencia artificial no representa una amenaza para la supervivencia de la humanidad.

0
77

Un nuevo estudio realizado por la Universidad de Bath y la Universidad Técnica de Darmstadt (Alemania) ha concluido que ChatGPT y otros grandes modelos de lenguaje (LLM) no pueden aprender de forma autónoma ni adquirir nuevas habilidades por sí solos, lo que implica que no representan una amenaza existencial para la humanidad.

Publicado en las actas de la 62ª Reunión Anual de la Asociación de Lingüística Computacional (ACL 2024), el estudio destaca que aunque los LLM tienen la capacidad de seguir instrucciones y sobresalir en tareas relacionadas con el lenguaje, no son capaces de desarrollar nuevas habilidades sin una instrucción explícita. Esto los hace intrínsecamente controlables, predecibles y seguros.

Los investigadores concluyeron que, aunque los LLM están siendo entrenados con volúmenes de datos cada vez mayores, su uso sigue siendo seguro, aunque la tecnología podría ser mal utilizada. A medida que estos modelos continúen evolucionando, es probable que generen un lenguaje más avanzado y sigan mejorando en la ejecución de instrucciones detalladas, pero es poco probable que adquieran capacidades de razonamiento complejas.

El Dr. Harish Tayyar Madabushi, informático de la Universidad de Bath y coautor del estudio, señaló que la narrativa predominante sobre la IA como una amenaza para la humanidad frena la adopción y el desarrollo de estas tecnologías, además de desviar la atención de problemas reales que requieren nuestra atención.

El equipo de investigación, liderado por la profesora Iryna Gurevych de la Universidad Técnica de Darmstadt, realizó experimentos para evaluar la capacidad de los LLM de llevar a cabo tareas nunca antes realizadas, las llamadas «capacidades emergentes». Aunque los LLM pueden responder a preguntas sobre situaciones sociales sin haber sido específicamente entrenados para ello, los investigadores demostraron que esto se debe a su habilidad para completar tareas basadas en ejemplos previos, conocido como «aprendizaje en contexto» (ICL, por sus siglas en inglés).

Tras miles de experimentos, el equipo concluyó que una combinación de la capacidad de seguir instrucciones (ICL), la memoria y la competencia lingüística explica tanto las capacidades como las limitaciones de los LLM.

El Dr. Tayyar Madabushi señaló que, aunque se ha temido que modelos más grandes puedan resolver problemas impredecibles y potencialmente peligrosos, su estudio demuestra que este miedo es infundado. A pesar de que algunos expertos en IA han expresado preocupaciones sobre los LLM, los investigadores no encontraron evidencia de que estos modelos puedan desarrollar capacidades de razonamiento complejo.

«Es crucial abordar el posible mal uso de la IA, como la creación de noticias falsas y el aumento del riesgo de fraude, pero sería prematuro imponer regulaciones basadas en amenazas existenciales percibidas», agregó el Dr. Tayyar Madabushi. Subrayó que confiar en los LLM para realizar tareas complejas sin instrucciones explícitas es un error, y recomendó a los usuarios especificar claramente lo que necesitan y proporcionar ejemplos cuando sea posible.

Finalmente, la profesora Gurevych afirmó que sus hallazgos no sugieren que la IA no presente riesgos en absoluto, sino que la aparición de habilidades de pensamiento complejo, que podrían suponer una amenaza específica, no está respaldada por evidencia, y que el proceso de aprendizaje de los LLM es, en última instancia, controlable. Así, sugieren que futuras investigaciones deberían enfocarse en otros riesgos, como el uso de estos modelos para la generación de noticias falsas.

Dejar respuesta

Please enter your comment!
Please enter your name here