En un esfuerzo por combatir el mal comportamiento, Facebook ha desplegado un ejército de bots en una versión simulada de la red social para estudiar su comportamiento y rastrear cómo se convierten en actividad antisocial.
Basándose en principios de aprendizaje automático, inteligencia artificial, teoría de juegos y sistemas multiagente, los ingenieros de Facebook desarrollaron el programa Simulación habilitada para la red (WES), una réplica altamente realista y a gran escala de Facebook.
Esperan remediar el crecimiento explosivo del acoso online, especialmente en esta era de desinformación política, teorías de conspiración descabelladas y discursos de odio.
Los bots de SET están entrenados para interactuar entre ellos, enviando mensajes, comentando los mensajes y haciendo solicitudes de amistad. No pueden interactuar con usuarios reales.
Mark Harman, el principal científico investigador de Facebook que publicó un resumen del esfuerzo de SET en un blog el jueves, explicó: “El enfoque de SET puede explorar automáticamente escenarios complicados en un entorno simulado. Mientras que el proyecto está en una etapa de sólo investigación por el momento, la esperanza es que algún día nos ayude a mejorar nuestros servicios y detectar posibles problemas de fiabilidad o integridad antes de que afecten a las personas reales que utilizan la plataforma”.
En el sistema experimental se pueden desplegar millones de bots con diferentes objetivos. Algunos, por ejemplo, intentarán comprar artículos que no están permitidos en el sitio, como armas o drogas. Los investigadores rastrearán los patrones aplicados por los bots mientras realizan búsquedas, visitan páginas y replican las acciones que los humanos podrían llevar a cabo.
Luego evaluarán varias contramedidas para ver cuál es la más efectiva para detener o incluso prevenir los comportamientos indeseables.
Con información de: Europa Press.