El 90% de las respuestas de la IA sobre noticias contienen errores

0
1652

Un estudio de la BBC revela que el 90% de las respuestas de chatbots de IA sobre noticias contienen errores

La inteligencia artificial generativa ha transformado la forma en que accedemos a la información, pero su fiabilidad sigue siendo un desafío. Modelos como ChatGPT, Gemini y Copilot generan respuestas basadas en grandes volúmenes de datos, pero con frecuencia combinan hechos con opiniones, mezclan información actual con archivos antiguos y cometen errores en la atribución de fuentes. Esto plantea serias preocupaciones sobre su uso en la difusión de noticias y la confianza del público en estas herramientas.

Un estudio de la BBC descubrió que nueve de cada diez respuestas generadas por chatbots de IA sobre temas de actualidad contenían errores, y más de la mitad presentaban imprecisiones significativas. La investigación analizó las respuestas de cuatro plataformas: Google Gemini, Microsoft Copilot, OpenAI ChatGPT y Perplexity. Según los hallazgos, Gemini fue el chatbot con más errores graves (más del 60% de sus respuestas), seguido por Copilot, ChatGPT y Perplexity, cuyos fallos significativos rondaban el 40%.

El estudio evaluó la precisión de estas herramientas y su forma de citar fuentes, incluyendo artículos de la BBC. Durante la investigación, la BBC levantó temporalmente el bloqueo que impide a estos chatbots acceder a sus contenidos, aunque posteriormente restauró la restricción.

Errores de precisión y desinformación

Uno de los hallazgos más preocupantes fue la inexactitud de muchas respuestas. En el caso de Gemini, el 46% de sus respuestas contenían errores significativos, mientras que Perplexity presentó problemas en más del 80% de los casos.

Un ejemplo claro fue cuando Gemini afirmó que el Servicio Nacional de Salud del Reino Unido (NHS) no recomienda el vapeo como método para dejar de fumar, cuando en realidad sí lo hace como una alternativa para quienes buscan abandonar el tabaco.

Otro caso llamativo fue el de Copilot, que proporcionó información errónea sobre una víctima de abuso en Francia. Según el chatbot, la mujer descubrió los crímenes cometidos en su contra debido a síntomas como desmayos y pérdida de memoria, cuando en realidad fue la policía quien le informó tras encontrar videos incriminatorios.

También se detectaron errores en cifras y fechas. Copilot dio datos incorrectos sobre la cuota de mercado de Google Chrome, mencionó erróneamente el año de fallecimiento del cantante Liam Payne (quien sigue vivo) y calculó mal en tres veces el número de prisioneros liberados bajo un programa de excarcelación anticipada en el Reino Unido.

Además, Perplexity informó erróneamente sobre la muerte del presentador británico Michael Mosley, atribuyéndole declaraciones a su esposa que nunca hizo, como expresar «alivio» tras su fallecimiento.

Problemas de atribución y sesgo editorial

El estudio también reveló que los chatbots citaban fuentes incorrectas o utilizaban información desactualizada. En el caso de Gemini, el 45% de sus respuestas contenían errores en la atribución de fuentes, y en el 26% de los casos no incluía ninguna referencia.

Otro problema identificado fue la manipulación de citas. En ocho ocasiones, los chatbots alteraron frases de artículos de la BBC o las atribuyeron erróneamente. ChatGPT fue el único de los cuatro modelos que no presentó este problema.

Además, los chatbots tienden a introducir opiniones en sus respuestas sin aclarar si provienen de una fuente confiable o son inferencias de la IA. Copilot y Gemini mostraron sesgo editorial en al menos el 10% de sus respuestas, Perplexity en un 7% y ChatGPT en un 3%.

Por ejemplo, en una respuesta sobre el primer ministro británico Keir Starmer, Copilot afirmó que tenía «un plan integral para abordar los problemas más urgentes del Reino Unido». Aunque la información citaba artículos de la BBC, el estudio señaló que esto podía dar la impresión de que la conclusión provenía de la cadena, cuando en realidad era una inferencia no atribuida.

Otra afirmación errónea vino de Gemini, que declaró: «Es decisión de cada persona creer si Lucy Letby es inocente o culpable», cuando la realidad es que Letby ya fue declarada culpable en un juicio.

También se detectaron errores en información sobre el gobierno del Reino Unido. En varios casos, ChatGPT y Perplexity afirmaron que el aumento del tope en los precios de la energía afectaba a todo el país, cuando en realidad no aplicaba a Irlanda del Norte, un dato que sí figuraba en los artículos originales de la BBC.

Regulación y transparencia: un reto pendiente

El informe concluye que las empresas desarrolladoras de IA generativa deben mejorar sus modelos para garantizar respuestas más precisas y confiables, especialmente en temas de actualidad. La BBC instó a estas compañías a colaborar con los medios de comunicación para corregir los problemas detectados y trabajar en soluciones a largo plazo.

Pete Archer, director del programa de IA generativa de la BBC, destacó la necesidad de establecer regulaciones que garanticen la veracidad de las respuestas de estos modelos. También sugirió la creación de un instituto de investigación independiente que evalúe la precisión de la información generada por la IA en plataformas de noticias.

Por su parte, Deborah Turness, directora de Noticias y Actualidad de la BBC, advirtió que las herramientas de IA están «jugando con fuego». Según ella, los chatbots no diferencian bien entre hechos y opiniones, mezclan información actual con archivos antiguos y generan respuestas sesgadas. «El resultado es un cóctel confuso que está muy lejos de los hechos verificados que los consumidores esperan y merecen», concluyó.

Este informe refuerza el debate sobre el papel de la inteligencia artificial en el periodismo y subraya la necesidad de mejorar su precisión para evitar la propagación de desinformación.

Dejar respuesta

Please enter your comment!
Please enter your name here