Inteligencia artificial APRENDE a responder a los FANÁTICOS

Los algoritmos ya se están utilizando para eliminar el discurso de odio en línea. Ahora los científicos le han enseñado a una IA a responder, lo que esperan pueda generar más discurso. Christopher Intagliata informa.


Las plataformas de redes sociales como Facebook utilizan la combinación de inteligencia artificial y moderadores humanos para explorar y eliminar el discurso de odio. Pero ahora los investigadores han desarrollado una nueva herramienta de IA que no solo eliminaría el discurso de odio, sino que también conseguiría generar respuestas a él, como: “El lenguaje utilizado es altamente ofensivo. Todas las etnias y grupos sociales merecen tolerancia “.

“Y es de esperar que este tipo de respuesta de intervención pueda provocar un cortocircuito en los ciclos de odio que a menudo tenemos en este tipo de foros”

Anna Bethke, científica de datos de Intel. La idea principal, dice, es luchar contra el discurso de odio con más discurso, un enfoque defendido por la ACLU y el Alto Comisionado de las Naciones Unidas para los Derechos Humanos.

Entonces, con sus colegas de UC Santa Barbara, Bethke tuvo el acceso a más de 5,000 conversaciones desde el sitio Reddit y casi 12,000 más desde Gab, lugar de redes sociales donde a la que los “prohibidos” en twitter suelen acudir.

Los investigadores hicieron que personas reales elaboraran ejemplos de respuestas al discurso de odio en esas conversaciones de Reddit y Gab. Luego, permitieron que los algoritmos de procesamiento del lenguaje natural aprendieran de las respuestas humanas reales y desarrollaran las suyas propias, tales como: “No creo que usar palabras de naturaleza sexista contribuya a una conversación productiva”.

Lo que, a decir verdad, suena bastante bien. Pero la inteligencia artificial también escupen respuestas que le rascan la cabeza un poco como esta: “Esto no está permitido y no es momento de tratar a las personas por su color de piel”.

Y cuando los científicos pidieron a los revisores humanos que eligieran a ciegas entre respuestas humanas y respuestas automáticas, bueno, la mayoría de las veces, los humanos ganaron. El equipo publicó los resultados en el sitio Arxiv  y los presentará el próximo mes en Hong Kong en la Conferencia sobre métodos empíricos en el procesamiento del lenguaje natural .

En última instancia, dice Bethke, la idea es provocar más conversación.

“No solo para tener esta discusión entre una persona y un bot, sino también para comenzar a entablar conversaciones dentro de las propias comunidades, entre las personas que podrían ser perjudiciales y las que podrían dañar”.

Artículo original

Deja un comentario