Opinión | TECNOLOGÍA

Regular la inteligencia artificial

Los líderes políticos deben encauzar el desarrollo de una tecnología que plantea muchos retos, distinguiendo entre peligros reales y especulaciones

La ética debe formar parte del diseño de algoritmos para evitar que la inteligencia artificial sea perniciosa para las mujeres y ciertos colectivos desfavorecidos y vulnerables.

La ética debe formar parte del diseño de algoritmos para evitar que la inteligencia artificial sea perniciosa para las mujeres y ciertos colectivos desfavorecidos y vulnerables. / Imagen de archivo / Pixabay

Hace poco más de cuatro meses que ChatGPT, un sistema de Inteligencia Artificial (IA) capaz de simular el razonamiento humano y generar diferentes tipos de textos, se puso a disposición de todo aquel que quisiera probarlo. Desde entonces, la IA se ha convertido en algo presente en la opinión pública, generando un vivo debate entre científicos, pensadores y parte de la ciudadanía. La eclosión de la IA tiene una parte de operación de marketing y es también un gran experimento social, ya que el uso de herramientas como ChatGPT por millones de ciudadanos supone alimentarlas con una ingente cantidad de datos para que mejoren sus resultados.

Las espectaculares funciones de la inteligencia artificial conversacional, así como la de los programas de creación de imágenes a partir de las indicaciones del usuario, han suscitado temores sobre la magnitud de los cambios que provocará. Su impacto puede transformar nuestras vidas y modelar nuestras sociedades.

La IA está además demostrando una inusitada velocidad de desarrollo. No es de extrañar, pues, que algunos sectores hayan alertado sobre su introducción masiva. Es el caso de la reciente carta abierta de destacados especialistas y directivos de la industria reclamando una moratoria de seis meses en el entrenamiento de los sistemas más avanzados de IA, para poder calibrar con detenimiento sus peligros.

Impulsada por grandes compañías como Microsoft o Google, la IA está recibiendo una marea de inversión y se ha convertido en el objetivo prioritario de los gigantes del sector, desplazando al metaverso y otras innovaciones basadas en la blockchain. Ante el innegable reto que supone es importante no dejarse llevar ni por la fascinación acrítica ni por el miedo irracional.

Pero hay que tener en cuenta que no es posible en este momento saber adónde nos conducirá . Nuestras sociedades, a través de sus representantes políticos, deben regular y encauzar el desarrollo de esta tecnología, distinguiendo entre los peligros reales a corto y medio plazo y los que se basan en meras especulaciones. Entre las cuestiones sobre las que trabajar se hallan, entre otras, la excesiva confianza en unas herramientas cuyos resultados, frecuentemente, no son fiables y que contienen falsedades, o la utilización por parte de estos programas de contenidos cuyos derechos no les pertenecen.

Pese a que la velocidad a la que avanza la IA añade dificultad a la acción regulatoria, en modo alguno nuestros representantes no pueden dejar exclusivamente en manos del mercado, es decir, de las grandes corporaciones, tecnologías como la IA. 

Es del todo pertinente y necesario, por tanto, exigir a las autoridades locales, europeas e internacionales, que actúen decididamente y eviten que nuestro futuro colectivo sea diseñado por los intereses de los grandes gigantes tecnológicos

Aunque de momento insuficientes, son elogiables en este sentido las iniciativas que está impulsando la Unión Europea. Debe producirse, sin embargo, un gran esfuerzo coordinado de todas las autoridades para conjurar los riesgos y prevenir los malos usos de la IA.