En medio de un fuerte aumento de los deepfakes por motivos políticos, la Agencia Nacional de Policía de Corea del Sur (KNPA) ha desarrollado e implementado una herramienta para detectar contenido generado por IA para su uso en posibles investigaciones criminales.
Según la Oficina Nacional de Investigación (NOI) de KNPA, el programa de aprendizaje profundo se entrenó en aproximadamente 5,2 millones de datos procedentes de 5.400 ciudadanos coreanos. Puede determinar si un vídeo (en el que no ha sido entrenado previamente) es real o no en sólo cinco a 10 minutos, con una tasa de precisión de alrededor del 80%. La herramienta genera automáticamente una hoja de resultados que la policía puede utilizar en investigaciones criminales.
Según informaron los medios coreanos, estos resultados se utilizarán para informar las investigaciones, pero no como prueba directa en juicios penales. La policía también dejará espacio para la colaboración con expertos en IA del mundo académico y empresarial.
Los expertos en seguridad de IA han pedido el uso de la IA para siempre, incluida la detección de información errónea y falsificaciones profundas.
“Este es el punto: la IA puede ayudarnos a analizar [contenido falso] a cualquier escala”, dijo Gil Shwed, director ejecutivo de Check Point, a Dark Reading en una entrevista esta semana. Aunque la IA es la enfermedad, dijo, también es la cura: “[La detección del fraude] solía requerir tecnologías muy complejas, pero con la IA se puede hacer lo mismo con una cantidad mínima de información, no solo buenas y grandes cantidades de información.”
Mientras el resto del mundo espera que los deepfakes invadan las temporadas electorales, los coreanos ya han estado lidiando con el problema de cerca y en persona.
El canario en la mina de carbón ocurrió durante las elecciones provinciales de 2022, cuando se difundió un vídeo en las redes sociales que parecía mostrar al presidente Yoon Suk Yeol respaldando a un candidato local del partido gobernante.
Este tipo de engaño últimamente se ha vuelto más frecuente. El mes pasado, la Comisión Electoral Nacional del país reveló que entre el 29 de enero y el 16 de febrero detectó 129 deepfakes que violaban las leyes electorales, una cifra que se espera que aumente a medida que se acerca el día de las elecciones del 10 de abril. Todo esto a pesar de una ley revisada que entró en vigor el 29 de enero, que establece que el uso de videos, fotografías o audio deepfake en relación con las elecciones puede acarrear a un ciudadano hasta siete años de prisión y multas de hasta 50 millones de wones. (alrededor de 37.500 dólares).