El problema no es Google: es cómo buscas

0
48

Tus búsquedas en internet podrían estar reforzando tus creencias, aunque no te des cuenta

Un nuevo estudio de la Universidad de Tulane ha revelado que incluso cuando realizamos búsquedas aparentemente neutrales en internet, solemos acabar encontrando información que confirma lo que ya pensábamos. Ya sea en Google, ChatGPT o cualquier buscador con inteligencia artificial, la forma en que formulamos nuestras consultas influye mucho más de lo que creemos en los resultados que recibimos.

La investigación, publicada en Proceedings of the National Academy of Sciences, muestra que las personas tienden a elegir términos de búsqueda que reflejan sus creencias previas, muchas veces sin intención consciente. Según Eugina Leung, autora principal del estudio y profesora en la Escuela de Negocios A. B. Freeman, “cuando la gente busca online, suele usar palabras que coinciden con lo que ya cree. Y como los algoritmos priorizan lo que consideran más relevante, eso acaba reforzando esas ideas”.

Para comprobarlo, los investigadores realizaron 21 experimentos con casi 10.000 personas. Analizaron búsquedas sobre temas tan diversos como la cafeína, la energía nuclear o la COVID-19. En todos los casos, los usuarios mostraron una clara tendencia a buscar información que respaldara sus opiniones. Por ejemplo, quienes pensaban que la cafeína es saludable solían escribir cosas como “beneficios de la cafeína”, mientras que los que la consideraban dañina buscaban “riesgos de la cafeína”.

Lo más sorprendente es que este sesgo aparecía incluso entre quienes aseguraban no tener intención de confirmar sus creencias. Menos del 10 % admitió haberlo hecho a propósito, pero sus consultas decían lo contrario.

El problema no es solo cómo buscamos, sino también cómo los sistemas responden. Los motores de búsqueda están diseñados para ofrecer resultados “relevantes”, es decir, lo más ajustado posible a las palabras que usamos. Pero esa relevancia puede limitar la variedad de perspectivas, encerrándonos sin querer en una cámara de eco.

Este fenómeno también se observó en herramientas como ChatGPT. Aunque estas plataformas suelen incluir distintos puntos de vista, los usuarios tienden a centrarse en el que coincide con su opinión inicial. La inteligencia artificial, en este caso, no elimina el sesgo: solo lo disimula.

Los investigadores probaron distintas estrategias para fomentar una visión más amplia, como animar a los participantes a buscar contraargumentos o a explorar más resultados. Ninguna fue tan efectiva como una solución técnica: rediseñar el algoritmo para que, sin importar cómo se plantee la búsqueda, se muestren resultados con distintas perspectivas. Esto ayudó a los usuarios a adoptar posturas más moderadas y abiertas.

Curiosamente, las personas valoraron estos resultados equilibrados como igual de útiles y relevantes que los tradicionales. Esto sugiere que los buscadores podrían ayudar a reducir la polarización si se diseñan con ese propósito. Incluso se propuso una función llamada “Buscar con amplitud”, que ofrecería deliberadamente una gama más diversa de puntos de vista, en contraste con el clásico “Voy a tener suerte” de Google.

Como concluye Leung: “La IA y los motores de búsqueda forman parte de nuestra vida diaria. Diseñarlos para mostrar una mayor diversidad de información podría ayudar a millones —o incluso miles de millones— de personas a escapar de las cámaras de eco. Nuestro estudio demuestra que decisiones de diseño bien pensadas pueden hacer que nuestras sociedades estén mejor informadas y sean menos polarizadas”.

Dejar respuesta

Please enter your comment!
Please enter your name here