¿Es posible que una inteligencia artificial simule empatía?

0
409

La empatía es una emoción compleja y multifacética que incluye componentes tanto cognitivos como emocionales. Para comprender la perspectiva o el estado mental de otra persona, o incluso sentir lo que siente esa persona (empatía emocional), se requiere una capacidad inherente a los procesos cerebrales humanos que nos permiten «reflejar» las emociones de los demás. La pregunta que surge es: ¿puede una inteligencia artificial fingir esta capacidad tan humana?

Sabemos que asistentes virtuales como Siri y Alexa, así como chatbots de servicio al cliente como ChatGPT, están diseñados para reconocer palabras clave y señales emocionales, ofreciendo respuestas adecuadas a nuestras preguntas o solicitudes. Pero, ¿pueden emular realmente la empatía humana?

Un equipo de científicos informáticos de la Universidad de Cornell, Olin College y la Universidad de Stanford investigó cómo agentes conversacionales como Siri muestran empatía. Estos agentes funcionan con grandes modelos de lenguaje, lo que les permite manejar una gran cantidad de información.

La investigación descubrió que, debido a la vasta cantidad de datos que manejan, estos sistemas pueden reflejar los mismos sesgos y prejuicios presentes en los datos humanos de los que se alimentan. Al intentar que las IA mostraran empatía en conversaciones con hasta 65 identidades humanas diferentes, se observó que emitían juicios de valor y podían alentar ideologías dañinas como el nazismo.

Andrea Cuadra, investigadora postdoctoral en Stanford, explicó: «La empatía automatizada tiene un tremendo potencial para lograr cosas positivas, por ejemplo, en la educación o en el sector de la atención médica. Es importante abordar críticamente este desarrollo para mitigar los daños potenciales».

Aunque las máquinas no sienten emociones, pueden procesar datos y ejecutar respuestas preprogramadas. Esta limitación es crucial en contextos que requieren una profunda comprensión emocional y conexión humana, como la terapia o los cuidados al final de la vida. Los modelos de lenguaje grande como ChatGPT pueden responder a consultas según su entrenamiento, pero no pueden profundizar más allá.

Ejemplos como Tay y Zo, ambos de Microsoft, ilustran los desafíos del desarrollo de chatbots empáticos. Tay, creado con algoritmos avanzados de procesamiento del lenguaje natural y aprendizaje automático, comenzó a publicar tuits racistas y ofensivos poco después de su lanzamiento debido a la explotación de sus algoritmos por parte de usuarios malintencionados. Zo, programado con medidas de seguridad mejoradas, evitó temas controvertidos, lo que resultó en interacciones frías y superficiales.

Estos ejemplos muestran las complejidades y desafíos de desarrollar chatbots de IA empáticos y destacan que imitar a un humano es un proceso lleno de complicaciones y no exento de riesgos.

Dejar respuesta

Please enter your comment!
Please enter your name here