El gobierno de Estados Unidos ha anunciado un compromiso de la industria de la IA para reducir el abuso sexual basado en imágenes.
Los “compromisos voluntarios”, que abarcan tanto a los desarrolladores de modelos de IA como a los proveedores de datos, comprometen a las empresas de tecnología a actuar contra las imágenes íntimas no consentidas y el material de abuso sexual infantil.
Según la Casa Blanca, el código de prácticas se basa en los compromisos asumidos el año pasado por la industria, de actuar para reducir los riesgos de la IA, garantizando “seguridad, protección y confianza”.
En los nuevos compromisos, las empresas de IA actuarán para reducir el abuso sexual a través de imágenes generadas por IA.
En virtud del acuerdo, Adobe, Anthropic, Cohere, Common Crawl, Microsoft y OpenAI se comprometerán a “obtener de forma responsable” conjuntos de datos y a protegerlos del abuso sexual basado en imágenes.
Las empresas mejorarán sus procesos de desarrollo y añadirán bucles de retroalimentación para evitar que los modelos de IA creen imágenes de abuso sexual. También se comprometieron a eliminar, “cuando sea apropiado”, las imágenes de desnudos de los modelos de entrenamiento de IA.
Los compromisos se encuentran entre varias iniciativas de la industria de la tecnología y la IA para reducir las amenazas de las imágenes de abuso de IA.
Estos incluyen medidas de Cash App y Square para frenar los pagos a empresas que promueven el abuso sexual basado en imágenes y una mayor participación en iniciativas que ayudan a detectar la sextorsión.
Google está actualizando su plataforma, incluido su motor de búsqueda, para combatir las imágenes íntimas no consentidas (NCII), y Microsoft ha trabajado para abordar NCII en Bing y señalar recursos para las víctimas.
Meta, Snap y Github también han actuado contra NCII y las herramientas que pueden compartirlas, incluido el contenido de IA. Meta, por ejemplo, ha eliminado 63.000 cuentas que estaban involucradas en estafas de sextorsión solo en julio.