PRIMERA EN EL MUNDO

Claves: ¿qué dice la ley de la Unión Europea que regula la Inteligencia Artificial?

Se trata del primer reglamento en el mundo que fomenta el desarrollo y la adopción de sistemas seguros y fiables, con el objetivo de garantizar el respeto de los derechos fundamentales de los ciudadanos 

Sede del Parlamento Europeo, en Estrasburgo

Sede del Parlamento Europeo, en Estrasburgo / FRED MARVAUX/EP/DPA - Archivo

Marta Alberca

Marta Alberca

La Unión Europea ha dado luz verde a la primera ley mundial enfocada a regular el uso adecuado de la Inteligencia Artificial (IA). Un hecho histórico que ha contado con el respaldo unánime de los 27 países miembro. La convierte en el único marco legal que fomenta el desarrollo y la adopción de sistemas de seguros y fiables en todo el mercado único de la UE por parte de actores públicos y privados, al mismo tiempo que garantiza el respeto de los derechos fundamentales de los ciudadanos europeos.

Su entrada en vigor no será inminente, comenzará a funcionar de forma gradual hasta 2026, cuando su aplicación será plena. También serán escalonados sus criterios, ya que legislará en base a los riesgos de que supongan los sistemas, es decir, cuanto mayor sea, más estrictas serán las normas. Además, no se aplicará a ámbitos fuera del ámbito de aplicación del Derecho de la UE y no afectará a las competencias de los Estados miembros en materia de seguridad nacional. Estas son las principales claves para entenderla:

¿Cuáles son sus objetivos?

Tiene dos propósitos claros, por un lado, garantizar que los sistemas de Inteligencia Artificial utilizados en la Unión Europea e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos. Por otro, estimular la inversión y la innovación en el ámbito de la IA en Europa. El acuerdo establece que el Reglamento de Inteligencia Artificial debe aplicarse dos años después de su entrada en vigor.

¿Cómo funcionará?

El reglamento establece la evaluación del impacto que tiene cualquier nuevo sistema de IA en los derechos fundamentales antes de ser introducido en el mercado. Además, en el caso de los modelos funcionales, entendidos como sistemas de gran magnitud que pueden desarrollar diferentes tareas (generación de vídeo, texto, imágenes, etc.), deberán cumplir obligaciones más específicas en materia de transparencia. Para ello, se han establecido una serie de criterios horizontales de protección que determinarán cuándo los sistemas de IA pueden causar daños a la sociedad, los denominados de alto riesgo.

¿Cuándo un sistema de IA será considerado de alto riesgo?

La nueva ley prohíbe los sistemas de manipulación cognitivo-conductual y puntuación social porque su riesgo se considera inaceptable. También prohíbe el uso de IA para vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual.

Además, establece que los modelos de inteligencia artificial generativa, como ChatGPT, tendrán que dejar claro si un texto, una canción o una fotografía se han generado a través de la IA y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.

¿Qué sistemas estarán exentos?

No afectará a las competencias de los Estados miembros en materia de seguridad nacional. Tampoco se aplicará a los sistemas utilizados exclusivamente con fines militares o de defensa; así como a los empleados con fines de investigación e innovación.

¿Cómo serán las multas?

En caso de incumplimiento, la legislación incluye multas importantes que oscilan entre el 1,5% del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o 7,5 millones de euros, hasta el 7% o los 35 millones de euros. En el caso de las pymes y las empresas de nueva creación la ley menciona que estarán sujetas a multas administrativas proporcionales.

Con el objetivo de garantizar el cumplimiento de la nueva normativa, se va a crear la Oficina de la IA en la Comisión. Se encargará de supervisar que los Estados miembros aplican las nuevas normativas, supervisar los modelos de IA más avanzados y contribuir a fomentar las normas y prácticas de ensayo.