Home Gobierno Advertencia sobre el plan de la UE de escanear mensajes privados en...

Advertencia sobre el plan de la UE de escanear mensajes privados en busca de CSAM

Una controvertida propuesta presentada por la Unión Europea para escanear los mensajes privados de los usuarios para detectar material de abuso sexual infantil (CSAM) plantea graves riesgos para el cifrado de extremo a extremo (E2EE), advirtió Meredith Whittaker, presidenta de la Signal Foundation, que mantiene el servicio de mensajería centrado en la privacidad del mismo nombre.

“Obligar a escanear masivamente comunicaciones privadas socava fundamentalmente el cifrado. Punto final”, dijo Whittaker en un comunicado, el lunes.

“Ya sea alterando, por ejemplo, la generación de números aleatorios de un algoritmo de encriptación, o implementando un sistema de custodia de claves, o forzando que las comunicaciones pasen a través de un sistema de vigilancia antes de ser encriptadas”.

La respuesta se produce mientras los legisladores en Europa están presentando regulaciones para combatir el CSAM con una nueva disposición llamada “moderación de carga” que permite que los mensajes sean examinados antes del cifrado.

Un informe reciente de Euractiv reveló que las comunicaciones de audio están excluidas del ámbito de la ley y que los usuarios deben dar su consentimiento para esta detección según los términos y condiciones del proveedor del servicio.

Europol, a finales de abril de 2024, pidió a la industria tecnológica y a los gobiernos que priorizaran la seguridad pública, advirtiendo que medidas de seguridad como E2EE podrían impedir que las fuerzas del orden accedan a contenidos problemáticos, reavivando un debate en curso sobre el equilibrio de la privacidad frente a la lucha contra los delitos graves.

También, pidió que las plataformas diseñen sistemas de seguridad de tal manera que aún puedan identificar y reportar actividades dañinas e ilegales a las autoridades, sin profundizar en los detalles de implementación.

Apple, el fabricante de iPhone, anunció planes para implementar la detección de material de abuso sexual infantil (CSAM) en el lado del cliente, pero abandonó la idea a finales de 2022 tras las continuas reacciones negativas de los defensores de la privacidad y la seguridad.

“La búsqueda de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y podría crear el deseo de buscar otros sistemas de mensajería cifrada en todos los tipos de contenido”, dijo la compañía en ese momento, explicando su decisión. También describió el mecanismo como una “pendiente resbaladiza de consecuencias no deseadas”.

Whittaker de Signal expresó, además, que llamar al enfoque “moderación de carga” es un juego de palabras que equivale a insertar una puerta trasera (o una puerta de entrada), creando efectivamente una vulnerabilidad de seguridad que está lista para ser explotada por actores maliciosos y piratas informáticos de estados-nación.