Facebook POTENCIA la IA para ELIMINAR contenidos nocivos

Facebook bloquea 1.700 millones de cuentas en un trimestre y el 90% de estas no llegaron ni a activarse.


Las cuentas falsas están a la orden del día, y Facebook ha querido dar un paso más potenciando la IA para poder rastrear y bloquear los contenidos abusivos y peligrosos que circulan en la red social con más usuarios del mundo.

De las más de 1.500 millones de cuentas eliminadas en el tercer trimestre de este año, el 90% lograron ser interceptadas antes de que fueran activas. Ese dato ha sido posible gracias a los avances en el software a la hora de identificar contenidos que incumplen los estándares de la plataforma. En la actualidad los principales identificadores de este tipo de contenido son los algoritmos, que permiten la detección automática de los materiales no deseados, aunque el proceso incluye equipos humanos que se encargan de verificar la aplicación del software.

A día de hoy, la detección de antemano está por encima del 90% en la mayoría de los casos, pero resulta menos eficaz en áreas más complejas como los discursos que propagan odio y especialmente el acoso. Es difícil que un algoritmo pueda detectar con exactitud si ciertos mensajes persiguen la difamación o solo se trata de una broma, porque su contenido atiende al contexto.

“El reto es continuo”, subraya Simon Cross

“cuanto más se sofistica la tecnología más personal humano precisamos”.

De los más de 35.000 empleados que se encargan del ámbito de la seguridad de Facebook,15.000 están volcados en la revisión de contenidos

«La Inteligencia Artificial nos permite lidiar con una escala de cuentas inabarcable para los humanos, pero el fuerte de éstos es el conocimiento del contexto que hacen inimaginable una IA sin intervención humana», apostilla Cross.

Los expertos de Facebook han asegurado que la “máquina” detecta hoy el 98% de la propaganda terrorista, pero el reto sigue siendo ese sensible 2% restante.

Artículo de referencia

Deja un comentario