
Para aumentar las posibilidades de que la tecnología se utilice para detectar videos falsos, cuando los humanos no pueden, Facebook y Microsoft lanzaron el Deepfake Detection Challenge, que ofrece 10 millones de dólares en subvenciones y recompensas a la investigación.
El esfuerzo, también está siendo respaldado por la Asociación para la Inteligencia Artificial, y académicos de Cornell Tech, MIT, University of Oxford, UC Berkeley, University of Maryland, College Park y State University of New York en Albany.
Facebook ha realizado en el pasado experimentos mentales con usuarios sin obtener su consentimiento. Pero esta vez, la empresa insiste en que no se utilizarán los datos de los usuarios de Facebook. En cambio, se trata de “encargar un conjunto de datos realistas que utilizará actores remunerados, con el consentimiento necesario obtenido, para contribuir al desafío”.
El objetivo es crear tecnología que todo el mundo pueda utilizar para detectar cuando un video ha sido manipulado con IA.
Sin embargo, para hacer eso, necesita tener un conjunto de datos más grande de contenido de falsificación profunda con el que trabajar, y hasta ahora la industria no lo tiene ni un punto de referencia para detectar falsificaciones profundas, según Facebook.
Por lo tanto, Facebook va a ayudar a crear ese conjunto de datos de video y audio deepfake con actores pagados utilizando las últimas técnicas.
La unidad de detección de falsificaciones de Facebook sigue los últimos esfuerzos de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) en la construcción de sistemas de detección utilizando’semantic forensics'” o SemaFor.
Al anunciar una nueva licitación a finales de agosto, DARPA señala la conexión entre la manipulación de los medios de comunicación y los medios sociales cuando se trata de la amenaza de desinformación que causa malestar en el mundo real.
Con información de: FayerWayer.