Instagram está trabajando para convertirse en una de las redes sociales menos tóxicas y para esto, la plataforma ha decidido lanzar una nueva función que advierte a los usuarios antes de que publiquen algo que podría ser ofensivo.
La compañía anunció en su blog , que había comenzado a introducir una nueva herramienta que avisará a las personas si su comentario “puede considerarse ofensivo”, en un esfuerzo por incentivar a los usuarios a que “se detengan y reconsideren sus palabras antes de publicar”.
La función utiliza una IA que detecta ciertas frases y palabras que se han marcado como ofensivas. Cuando esa IA detecta comentarios “potencialmente ofensivos”, advierte al usuario con un mensaje en el que aparece una opción para “editar el comentario”, otra de “aprender más” y una última que dice “compartir de todos modos”. Así que, aunque no logra censurar el contenido de los usuarios, sí les informa de que están comportándose de una manera que no es la adecuada.
Instagram ha dicho que esta función está pensada para parar el acoso escolar en su plataforma, y que es una extensión de la herramienta que lanzaron en el mes de Julio, para notificar a los usuarios si sus comentarios pueden ser ofensivos.
Ahora la plataforma afirma que los resultados han sido “prometedores”, ya que la vergüenza ha animado a muchos usuarios a “reconsiderar sus palabras cuando se les ha dado esa oportunidad”, lo cual consideramos como algo muy positivo.
Instagram ha dicho que esta nueva herramienta ya ha dado comienzo en ciertos países y que se expandirá al resto del mundo durante los próximos meses.
Estamos seguros que todo lo que conlleve a la mejora de las publicaciones en las redes sociales, es algo muy importante para todos.