Home Concientización Apple anuncia nuevas funciones del iPhone, para detectar abusos sexuales a menores

Apple anuncia nuevas funciones del iPhone, para detectar abusos sexuales a menores

Tras un informe sobre el trabajo que la compañía estaba realizando para crear una herramienta que escanea los iPhones, en busca de imágenes de abuso infantil, Apple ha publicado un post en el que ofrece más detalles sobre sus esfuerzos relacionados con la seguridad infantil. Con el lanzamiento de iOS 15, watchOS 8 y macOS Monterey a finales de este año, la compañía dice que introducirá una variedad de características de seguridad infantil a través de Mensajes, Fotos y Siri.

Para empezar, la aplicación Mensajes incluirá nuevas notificaciones que avisarán a los niños, así como a sus padres, cuando envíen o reciban fotos sexualmente explícitas. Cuando alguien envíe a un niño una imagen inapropiada, la aplicación la difuminará y mostrará varias advertencias. “No es tu culpa, pero las fotos y vídeos delicados pueden utilizarse para hacerte daño”, dice una de las notificaciones, según una captura de pantalla que ha compartido Apple.

Como precaución adicional, la compañía dice que Mensajes también puede notificar a los padres si su hijo decide seguir adelante y ver una imagen sensible. “Hay protecciones similares si un niño intenta enviar fotos sexualmente explícitas”, según Apple. La compañía señala que la función utiliza el aprendizaje automático en el dispositivo para determinar si una foto es explícita. Además, Apple no tiene acceso a los mensajes en sí. Esta función estará disponible para las cuentas familiares de iCloud.

Apple también introducirá nuevas herramientas de software en iOS y iPadOS que permitirán a la compañía detectar cuando alguien suba contenido a iCloud que muestre a niños involucrados en actos sexuales explícitos. La compañía dice que utilizará la tecnología para notificar al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que a su vez trabajará con las agencias de la ley en todo Estados Unidos. “El método de Apple para detectar CSAM [Material de Abuso Sexual Infantil] conocido está diseñado teniendo en cuenta la privacidad del usuario”, afirma la compañía.

En lugar de escanear las fotos cuando se suben a la nube, el sistema utilizará una base de datos en el dispositivo de imágenes “conocidas” proporcionadas por el NCMEC y otras organizaciones. La empresa afirma que la base de datos asigna un hash a las fotos, que actúa como una especie de huella digital para ellas.

Una tecnología criptográfica llamada intersección de conjuntos privados permite a Apple determinar si hay una coincidencia sin ver el resultado del proceso. En caso de coincidencia, el iPhone o el iPad crearán un vale de seguridad criptográfico que cifrará la carga, junto con datos adicionales sobre ella. Otra tecnología llamada umbral de compartición secreta hace que la empresa no pueda ver el contenido de esos vales a menos que alguien pase un umbral no especificado de contenido CSAM. “El umbral se establece para proporcionar un nivel de precisión extremadamente alto y garantiza menos de una posibilidad entre un trillón al año de marcar incorrectamente una cuenta determinada”, según la empresa.

Sólo cuando se supere esa línea, la tecnología que Apple planea implementar permitirá a la compañía revisar el contenido de los vales. En ese momento, el gigante tecnológico dice que revisará manualmente cada informe para confirmar que hay una coincidencia. En los casos en los que la haya, desactivará la cuenta de iCloud del individuo y enviará un informe a NEMEC. Los usuarios pueden apelar la suspensión si creen que su cuenta ha sido marcada por error.

Por último, Siri, así como la función de búsqueda integrada que se encuentra en iOS y macOS, indicará a los usuarios los recursos de seguridad infantil. Por ejemplo, se podrá preguntar al asistente digital de la compañía cómo denunciar la explotación infantil. Apple también planea actualizar Siri para que intervenga cuando alguien intente realizar alguna búsqueda relacionada con el CSAM. El asistente explicará “que el interés por este tema es perjudicial y problemático”, además de indicar a la persona los recursos que ofrecen ayuda sobre el tema.

Es probable que la decisión de Apple de colaborar eficazmente con las fuerzas del orden sea vista como una especie de cambio de rumbo de la compañía. En 2016, se negó a ayudar al FBI a desbloquear el iPhone que había pertenecido al hombre detrás del ataque terrorista de San Bernardino. Aunque el gobierno finalmente recurrió a una empresa externa para acceder al dispositivo, Tim Cook calificó el episodio de “escalofriante” y advirtió que podría crear una puerta trasera para más vigilancia gubernamental en el futuro.

Con información de: Digital Trends Español.