
Facebook informó que puso en práctica mejoras significativas en la tecnología que utiliza para detectar y eliminar los discursos de odio y otras violaciones de las normas de su comunidad, incluida la información engañosa relacionada con COVID-19.
Históricamente, Facebook se ha basado en moderadores humanos, empleados por socios contractuales, como base de su estrategia de moderación de contenidos. Sin embargo, estos moderadores generalmente no pueden trabajar desde casa debido a la naturaleza gráfica de su trabajo.
A su vez, la empresa de medios sociales se enfrentó a un posible atraso en la moderación de contenidos, ya que la pandemia de COVID-19 obligó a las oficinas a permanecer cerradas o con capacidad reducida.
El vicepresidente de integridad de Facebook, Guy Rosen, dijo que la compañía ahora depende más de la tecnología para ayudar a manejar la carga de trabajo de la moderación. Facebook está usando la IA para crear un sistema de clasificación que prioriza el contenido más crítico para que los equipos de moderación humana lo revisen. La IA evalúa cuán grave puede ser la amenaza en un contenido, por ejemplo, una publicación que promueve la explotación infantil o que tiene a alguien que inminentemente implica que se está quitando la vida, y lo señala para su revisión inmediata.
Con las mejoras tecnológicas, Rosen dijo que la tasa de detección proactiva de los discursos de odio en Facebook aumentó a 95%, lo que resultó en 22,5 millones de piezas de contenido que fueron eliminadas por violaciones en el segundo trimestre. En Instagram, la detección proactiva resultó en la eliminación de 3,3 millones de mensajes.
Con información de: ZDNet.