DILEMA ÉTICO Y LEGAL

Reconocimiento facial en estadios y espacios públicos: ¿una ventaja de seguridad o una violación de privacidad?

Los sistemas de identificación biométrica pueden ser una herramienta de seguridad muy útil, pero también representan un grave riesgo para la intimidad y la privacidad de los ciudadanos

El Parlamento Europeo da luz verde al proyecto para regular la inteligencia artificial

Una cámara de seguridad en la vía pública

Una cámara de seguridad en la vía pública / FREEPIK

Héctor González

Héctor González

Parece la materialización de un sueño febril de la ciencia ficción: perdido entre la multitud que abarrota el acceso a un estadio de fútbol, un aficionado cualquiera trata de llegar hasta las taquillas. Por encima de su cabeza, sin que él lo sepa, una serie de cámaras graban y escanean su rostro, que un programa de inteligencia artifical analiza hasta dar con su identidad. Entonces, se activa una alarma y un grupo de agentes de seguridad van a por el individuo para impedir su entrada.

Sin embargo, esta escena ya es una realidad en muchos estadios deportivos del mundo. Y en conciertos, aeropuertos y otros espacios públicos masivos. Los sistemas de reconocimiento facial permiten usar tu propia cara como método de acceso, reconocer a individuos que tienen prohibida la entrada, seguir a criminales o identificar a quienes han cometido un delito, entre otros varios usos.

Estas posibilidades encierran potenciales beneficios sociales en términos de seguridad y protección. Por ejemplo, contar con reconocimiento facial podría haber sido útil para ayudar a la policía a identificar con más rapidez a las personas que, en el partido de LaLiga que enfrentó a Real Madrid y Valencia, propinaron insultos racistas contra Vinicius Jr. O para fichar a los varios ultras del Ajaccio, equipo de la Ligue 1 francesa, que agredieron a un niño de ocho años con cáncer cerebral y a su familia en el partido ante el Olympique de Marsella

Pero también supone un grave riesgo para la privacidad y la intimidad de los ciudadanos. Especialmente si esta tecnología es empleada en países con una regulación laxa que de pie a que las empresas privadas recurran a ella con fines poco éticos, o en regímenes antidemocráticos donde sea el propio Estado quien la utilice para controlar y oprimir a la población. Es el caso, por ejemplo, de China, donde estos sistemas llevan integrados varios años de forma masiva. O, más recientemente, Irán, donde "se han introducido tecnologías de reconocimiento facial para perseguir y castigar a las que cuestionan el uso obligatorio del velo", tal y como ha denunciado este lunes la alta comisionada de la Oficina de la ONU para los Derechos Humanos, Nada Al-Sharif.

La UE aboga por su prohibición

Consciente de los grandes peligros asociados a esta tecnología, el pleno del Parlamento Europeo ha acordado este miércoles que defenderá prohibir el reconocimiento facial masivo para la vigilancia de espacios públicos durante la negociación con los 27 de las primeras reglas en el mundo para el uso de la Inteligencia Artificial (IA), normas que también abordarán la obligación para los sistemas como ChatGPT de avisar de que sus contenidos se han generado artificialmente.

 La Eurocámara quiere que la vigilancia biométrica remota en la vía pública en tiempo real esté totalmente prohibida, que los sistemas de IA generativa como el ChatGPT tengan que notificar que los contenidos han sido generados por IA y que los sistemas de IA utilizados para influir en los votantes en las elecciones se consideren de alto riesgo.

Los eurodiputados aspiran a vetar los sistemas de identificación biométrica remota, en tiempo real o no, en espacios públicos; los sistemas de categorización biométrica que utilicen características identitarias como el género, la raza o la religión y los sistemas policiales predictivos.

Los negociadores de la Eurocámara también defenderán prohibir en todo caso el uso de sistemas de reconocimiento de emociones por las fuerzas de seguridad, en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza; así como el rastreo indiscriminado de imágenes faciales sacadas de Internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial (porque violan los derechos humanos y el derecho a la intimidad).