Los ciberdelincuentes acaban de empezar con sus objetivos maliciosos y el abuso de la inteligencia artificial (IA), según un nuevo informe de Europol y la ONU.
Compilado con la ayuda de Trend Micro, el informe de Usos Maliciosos y Abusos de la Inteligencia Artificial predice que la IA será utilizada en el futuro como vector de ataque y como superficie de ataque.
En efecto, esto significa que los ciberdelincuentes están buscando formas de utilizar las herramientas de la IA en los ataques, pero también métodos a través de los cuales comprometer o sabotear los sistemas de IA existentes, como los que se utilizan en el reconocimiento de imágenes y voz y en la detección de malware.
El informe advirtió que, si bien las falsificaciones profundas son las que más se hablan sobre el uso malicioso de la IA, hay muchos otros casos de uso que podrían estar en desarrollo.
Entre ellos se encuentran el aprendizaje automático o los sistemas de IA diseñados para producir contenidos de ingeniería social altamente convincentes y personalizados a escala, o quizás para identificar automáticamente los sistemas y datos de alto valor en una red comprometida que deben ser exfiltrados.
Los ataques con programas de rescate apoyados por la IA podrían incluir la selección y evasión inteligentes y la autopropagación a alta velocidad para paralizar las redes víctimas antes de que hayan tenido la oportunidad de reaccionar, según el informe.
Al encontrar puntos ciegos en los métodos de detección, esos algoritmos también pueden destacar dónde pueden esconderse los atacantes a salvo de ser descubiertos.
Con ese fin, en el documento se destacan múltiples esferas en las que la industria y los organismos de represión pueden unirse para adelantarse a los riesgos señalados anteriormente. Entre ellas figuran el desarrollo de la inteligencia artificial como instrumento de lucha contra la delincuencia y nuevas formas de aumentar la resistencia de los sistemas de inteligencia artificial existentes para mitigar la amenaza de sabotaje.