
La tercera edición del informe Community Standards Enforcement de Facebook, recientemente publicado, encontró que el cinco por ciento de las cuentas activas mensuales registradas en el sitio web de los medios sociales entre octubre de 2017 y marzo de 2019 eran falsas.
Esto representa un aumento de uno a dos puntos porcentuales en la “prevalencia” de las cuentas falsas desde que se publicó la segunda edición del informe de transparencia el pasado mes de noviembre. Ese informe anterior encontró que sólo el tres o cuatro por ciento de las cuentas activas mensuales fueron falsificadas entre octubre de 2017 y septiembre de 2018.
De enero a marzo de 2019, Facebook suprimió 2.190 millones de cuentas falsas. Esto marca un nuevo hito en cuanto a la medida en particular, desde que la compañía lanzó su primer informe sobre la aplicación de las normas comunitarias, hace un año. Y es casi el doble de los 1.200 millones de acciones realizadas entre octubre y diciembre de 2018.
“Estamos concentrados en…. asegurarnos de que mejoramos nuestra capacidad de capturar más en los próximos trimestres”, dijo Guy Rosen, vicepresidente de integridad y gestión de productos, en una conferencia de prensa.
Facebook señala que estos números tan altos son en gran parte el resultado de ataques simplistas lanzados por actores poco sofisticados – muchos de ellos spammers – que intentan crear millones de cuentas falsas a la vez. Estos casos suelen detectarse y detenerse antes de que los usuarios los vean, señala Alex Schultz, vicepresidente de Analytics en Facebook, en un artículo en línea en el que explica cómo su empresa mide las cuentas falsas.
En los últimos seis meses, Facebook ha logrado tomar medidas con respecto a las cuentas falsas entre el 99,7 y el 99,8 por ciento del tiempo antes de que un usuario pueda informar sobre el problema, según el informe.
“Seguimos confiando en que la gran mayoría de las personas y actividades en Facebook son auténticas”, dijo Schultz, y señaló que no todas las cuentas falsas que superan las defensas contra la IA de Facebook son abusivas o maliciosas.
Mientras tanto, la compañía actuó contra el spam 1.760 millones de veces entre enero y marzo, y 1.750 millones de veces en los tres meses anteriores. En el 99,9 por ciento de estos casos, Facebook descubrió el problema antes de que los usuarios pudieran denunciarlo.
El Informe sobre el Cumplimiento de las Normas Comunitarias también ofrece estadísticas de casos de desnudez y actividad sexual de adultos, intimidación y acoso, desnudez y explotación sexual de niños, incitación al odio, drogas reguladas, armas de fuego reguladas, propaganda terrorista, y violencia y contenido gráfico.
En la convocatoria de prensa, el CEO de Facebook, Mark Zuckerberg, dijo que el próximo informe también incluirá Instagram, y que a partir del próximo año la compañía comenzará a publicar los informes trimestrales “porque creo que la salud del discurso es tan importante como cualquier otro informe financiero que hagamos, así que deberíamos hacerlo con la misma frecuencia”.
“Comprender la prevalencia de los contenidos nocivos ayudará a las empresas y a los gobiernos a diseñar mejores sistemas para hacer frente a ellos, y creo que todos los principales servicios de Internet deberían hacerlo”, continuó Zuckerberg.
El empresario reconoció que los esfuerzos para introducir servicios de cifrado de extremo a extremo en Facebook Messenger e Instragram podrían dificultar la identificación de comportamientos maliciosos, pero añadió que tales consecuencias valen la pena debido a las ventajas de privacidad.
“Creemos que el cifrado es una herramienta increíblemente poderosa para la privacidad y estamos trabajando para detectar a los malos actores a través de cosas como la identificación de patrones de mala actividad o la construcción de mejores herramientas para que la gente nos informe de los malos contenidos”, dijo Zuckerberg. “Y reconocemos que va a ser más difícil encontrar todos los diferentes tipos de contenido dañino. Lucharemos esa batalla sin una de las herramientas más importantes que es, por supuesto, ser capaces de ver el contenido en sí mismo… Pero creemos que este compromiso de proteger la privacidad de las personas y dar a las personas herramientas de clase mundial para la privacidad y la seguridad… es el camino correcto hacia adelante”.
Zuckerberg también indicó que la compañía está avanzando con planes para crear una Junta de Supervisión independiente que revisará las apelaciones presentadas por los usuarios cuyo contenido es eliminado de Facebook, tal vez injustamente.
Con información de: SC Magazine.