Opinión | EDITORIAL

La UE regula la inteligencia artificial

La amenaza a derechos esenciales es patente, y ahora la ley prohíbe los usos que supongan "riesgo inaceptable"

Una proteína es suficiente para organizar la inteligencia humana.

Una proteína es suficiente para organizar la inteligencia humana. / Generador de imágenes de la IA de BING para T21/Prensa Ibérica, desarrollada con tecnología de DALL·E.

La irrupción de la inteligencia artificial (IA) ha tenido lugar en un completo desierto legislativo, ya que esta nueva herramienta no tiene precedentes y ni siquiera ha mostrado todavía su verdadera potencialidad, que presumimos inmensa, poderosa y de progreso, aunque apunta que en determinados sentidos puede ser también aterradora. En este marco, la UE ha sido la primera instancia mundial que ha establecido una reglamentación estricta que permita embridar, en un primer momento, unas capacidades exorbitantes que, mal utilizadas, podrían producir lesiones irreparables al cuerpo social. El pasado viernes, tras vencer las reticencias francesas, la Unión refrendaba la referida norma, que plasma un histórico acuerdo político alcanzado en diciembre durante la presidencia española del Consejo de la UE.

Según la Comisión, la nueva norma tiene dos objetivos: primero, garantizar que los sistemas de inteligencia artificial que entren en el mercado europeo sean seguros y respeten los derechos de los ciudadanos; segundo, estimular las inversiones y las investigaciones en inteligencia artificial en Europa, ya que al parecer Bruselas se ha percatado de haber perdido el liderazgo en las altas tecnologías.

La amenaza de la IA a los derechos esenciales es patente, y ya la ley prohíbe los usos que supongan "riesgo inaceptable". Se citan, entren otros, los sistemas de puntuación social y de la manipulación cognitiva de grupos vulnerables, pero está por ver si el afán por la seguridad termina autorizando o no la identificación facial indiscriminada de las personas, como de hecho ya se hace en determinados ámbitos norteamericanos, que todavía no están afectados por limitación alguna.

Al margen de las cuestiones éticas y legales, Francia había mostrado razonable reticencia a limitar demasiado la IA en esta fase de desarrollo inicial, lo que perjudicaría los tímidos intentos de las startups europeas -como la francesa Mistral AI o la alemana Aleph Alpha- en su capacidad para competir con aplicaciones de Silicon Valley como ChatGPT o Bard. Macron ha luchado por limitar la exigencia de una excesiva transparencia y en concreto ha mitigado la cláusula que obligará a las empresas de IA generativa a publicar los datos utilizados para entrenar su software para evitar violaciones de los derechos de autor. Ciertamente, no es una buena idea estrangular los estados iniciales de nuevas tecnologías cuando aún ni siquiera se conoce realmente el alcance que conseguirán y produciendo retrasos de salida que después serán muy difíciles de corregir.

Las aristas de la inteligencia artificial no se agotan en estos aspectos citados, ya que estas herramientas tecnológicas influyen decisivamente en los procesos productivos y por lo tanto afectan al empleo, tanto global como vinculado a cada actividad. Las tareas automatizadas, incluso las más complejas, pasarán a ser realizadas masivamente por ordenadores, y es altamente probable que se produzca un desajuste entre oferta y demanda en el campo laboral que, entre otras cosas, obligue a buscar redes de seguridad para evitar que nadie quede atrás, así como formación para hallar otros yacimientos de empleo. Pero estas cuestiones y otra que surgirán de la propia experiencia requerirán nuevas normas, indispensables para que la inventiva humana ayude al progreso sin perder de vista los límites éticos y el respeto al otro y el bienestar social. La inteligencia artificial debe ser un hito, no una amenaza sin control.