Home Sociedad Lanzan un marco ético para el reconocimiento facial

Lanzan un marco ético para el reconocimiento facial

La sección de videovigilancia de la Asociación Británica de la Industria de la Seguridad (BSIA) ha lanzado una guía de uso ético y legal del reconocimiento facial automático (AFR).

La guía, recomendada por la Organización para la Cooperación y el Desarrollo Económicos, expone las consideraciones que deben hacer las organizaciones en relación con el uso responsable de la tecnología de reconocimiento facial, abarcando términos útiles, abreviaturas y cuestiones éticas.

El marco, diseñado para ser accesible tanto a los expertos del sector como al público, se centra específicamente en los distintos tipos de aplicaciones de verificación e identificación.

Dave Wilkinson, director de servicios técnicos de la BSIA, explicó: “Este trabajo de colaboración entre los expertos del sector ha dado lugar a una guía con consejos y recomendaciones sobre el uso ético y legal de los AFR, que resultará atractiva para cualquier persona dentro o fuera del sector de la seguridad física. Su objetivo es garantizar que no se cause daño ni se discrimine a ninguna persona en un entorno público o privado”.

“El uso de la IA es una parte de la vida cotidiana que crece exponencialmente y debemos asegurarnos de que todas las partes interesadas son conscientes de las consideraciones éticas y legales del uso de estas soluciones”.

“De no ser así, esta beneficiosa tecnología podría ser mal utilizada, lo que llevaría a la pérdida de confianza y a un mayor escepticismo sobre la tecnología. Queremos asegurarnos de que el público en general sepa que esta orientación ética y legal está ahí para que las empresas la sigan. El cumplimiento de la ley es primordial cuando se utiliza esta tecnología, y esta guía proporcionará a las empresas la base para demostrar su compromiso con el cumplimiento de las realidades éticas, las consecuencias y los impactos del uso de una solución de IA/AFR”, finalizó.

Con información de: Info Security Magazine.