Nuevos desafíos

La inteligencia artificial no necesita parar, pero sí regulación

La privacidad, el desempleo tecnológico derivado de las automatización o el aumento de la brecha socioeconómica, retos a los que hacer frente

Ilustración en 3D de un robot de inteligencia artificial.

Ilustración en 3D de un robot de inteligencia artificial. / ARCHIVO

Montse González, Mar Mato

"La inteligencia artificial (IA) avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes". Es uno de los argumentos que esgrimen un grupo de empresarios del sector tecnológico, expertos y políticos para solicitar que se suspendan durante seis meses los experimentos con inteligencia artificial (IA) más potentes. En tono apocalíptico, sostienen en su misiva, publicada por el organismo sin ánimo de lucro 'Future of Life Institute', que “los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.

El primer firmante es el informático canadiense Yoshua Bengio, uno de los pioneros en el avance del aprendizaje profundo, la tecnología en la que se basan sistemas como ChatGPT. Además de Elon Musk, director general de Tesla, Twitter y SpaceX, también se encuentra entre los firmantes Steve Wozniak, cofundador de Apple; el intelectual Yuval Noah Harari o el político Andrew Yang, candidato presidencial demócrata de Estados Unidos en 2020. También han firmado los cofundadores de plataformas como Skype, Pinterest o Ripple.

"Comparto el sentido de la carta, lo que no entiendo es lo de la moratoria de seis meses, porque me parece que es pensamiento ilusorio", afirma Senén Barro, doctor en Física, catedrático de Ciencias de la Computación e Inteligencia Artificial y director científico del CiTIUS (Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela-USC). Tampoco comparte "el tono de alarmismo que tiene la carta, que se ha amplificado mucho en los medios de comunicación, pero sí que tiene cierto tono de preocupación como si estuviera cercana una IA que se nos pudiera escapar a nuestro control", subraya.

Una Inteligencia Artificial, ¿de propósito general?

"Yo soy de los que cree que llegará un día en el que tendremos una IA de propósito general, no que en parcelas o actividades puntuales nos supere a nosotros, porque eso ya ocurre, sino que de modo general podamos decir que es una inteligencia que nos supera o nos iguala al menos. Creo que eso será posible algún día, pero hoy ni lo es, ni está cerca; además, no sabemos qué pasos dar ni en qué dirección para eso".

"Ponerse ahora a especular en ese sentido y a alarmarse no tiene objeto", afirma al tiempo que añade que "yo sí que creo que hay que preocuparse por la inteligencia artificial, al menos ocuparse de ella, porque es el conjunto de tecnologías potencialmente más transformadoras de nuestra vida, de nuestra economía, empleo, educación, salud..., que nunca hemos tenido y estamos empezando, como quien dice. Ya estamos viendo que cada vez hay nuevos avances, nuevas aplicaciones, cosas que nos sorprenden incluso a los que estamos trabajando en esto, por lo tanto, claro que hay que ocuparse de esto y regular los usos de la inteligencia artificial, claro que hay que tratar de anticiparse a los posibles malos usos o incluso errores que podamos cometer en según qué ámbitos de aplicación".

"Lo que realmente me preocupa es que lo gobiernos pierdan el control frente a las grandes corporaciones"

Senén Barro

— Director de CITIUS

En la misiva, los firmantes hacen un "llamamiento a todos los laboratorios de IA" para que paren de inmediato el entrenamiento de los sistemas de IA más potentes que GPT-4", pidiendo incluso la intervención de los gobiernos para imponerla en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones.

En referencia a ChatGPT, la catedrática de Ciencias de la Computación de la Universidad de A Coruña, Amparo Alonso, destaca que "la tecnología casi siempre va por delante de la legislación y esto plantea una serie de situaciones como, por ejemplo, en cuanto al uso masivo del ChatGPT-3, que lo ha usado todo el mundo que conozco, para intentar que sea un modelo más transparente, menos sesgado y que no tenga problemas de privacidad o de seguridad", indica.

La protección de datos, ¿un problema?

"Puede ser una herramienta de uso muy positivo", prosigue, "porque puede ayudarte a redactar mejor un texto o a buscar información sobre algo que puedas usar para inspirarte, el problema es el mal uso. Hay que filtrar a los usuarios, también las respuestas, y también legislar de alguna manera el tema de la recogida y conservación de datos. Si hay, además, versiones de pago y esos datos no se protegen, es un problema claro", advierte.

Recientemente, OpenAI, creadora de ChatGPT, confirmaba que su herramienta había sufrido su primer gran problema de seguridad al quedar expuestos datos privados de algunos usuarios. De hecho, la pasada semana Italia bloqueó el acceso a ChatGPT y abrió una investigación contra el popular chatbot por una presunta violación de las normas de recopilación de datos.

Alonso asegura que "tanto en Estados Unidos como Europa tienen en marcha una propuesta de regulación ética de la IA. En Europa, por lo menos, se pretende que esto pueda empezar en 2024, de ahí que tengamos AESIA en A Coruña, porque es la agencia que se va a ocupar de desarrollar las guías y pruebas que deberían hacerse a cualquier aplicación de IA que esté disponible, a la venta, etc, en Europa; normalmente son aplicaciones que se llaman de "alto riesgo", no solo chatbots", subraya.

¿Riesgo para la seguridad pública?

"España se ha propuesto como campo de pruebas para la UE para probar esta regulación, de ahí que se haya creado AESIA, que será la primer agencia de toda Europa de supervisión ética de IA y todo este tema se debería llevar a cabo durante 2023 para que esta legislación se pueda publicar en 2024, es la intención al menos en Europa y, por tanto, hay una cierta moratoria para ver qué ocurre con otras aplicaciones que, en principio, podrían no considerarse de alto riesgo y a las que también se les podrían solicitar una serie de requisitos", destaca Alonso.

"En EEUU, donde también hay problemas con la versión 4 de ChatGPT, también hablan de riesgo para la privacidad y la seguridad pública; lideró también una propuesta de legislación en octubre de 2022 e imagino que estarán en temas del mismo tipo para que se suspendan estos experimentos hasta que se pueda ver qué tipo de riesgos potenciales pueden tener y ver cómo planificar y gestionar el uso de esos sistemas y recursos".

"Europa y EEUU tienen en marcha propuestas de regulación ética de la IA"

Amparo Alonso

— Catedrática de Ciencias de la Computación en la UDC

"Después hay otro tipo de cuestiones, como la guerra entre las empresas. Hace unos meses Google era el que llevaba la iniciativa y ahora mismo Microsoft se ha adelantado con su versión. Seguramente Google tendrá otra y lo que querrán todas, y me parece lógico, es que cumplan unos requisitos de privacidad y seguridad para todas", afirma.

En este punto, Barro también advierte sobre el hecho de que “el uso de las tecnologías genera, espontáneamente, aumentos en las brechas socioeconómicas” y apunta a lo que se llama comúnmente “desempleo tecnológico derivado de la automatización”. “Creo que habría que preocuparse ya de cómo educar a nuestros jóvenes para la sociedad de la inteligencia”, subraya. “Buena parte de la inteligencia que nos va a rodear es ya una inteligencia artificial, viene implantada en máquinas, estamos viendo que se están desarrollando un conjunto de tecnologías y sus aplicaciones que, efectivamente, van a tener un impacto enorme en nuestras vidas, en nuestra calidad de vida, en nuestra educación, en nuestro empleo, en la riqueza..., y queremos que se nos eduque, que se nos informe, queremos tomar decisión en las cosas que son más sensibles para nosotros, y esta es la parte que yo firmaría de una carta así; pero no diría que durante seis meses tenemos que parar, porque eso me parece un brindis al sol. ¿Quién va a parar?, ¿quién les va a obligar?, ¿para qué?, ¿cuál es el resultado de esos seis meses?”, se pregunta.

"De los países más desarrollados en IA, el que tiene un control directo sobre la actividad de sus empresas y sus centros de investigación y universidades es China, y es la que menos lo va a hacer, tiene una llave todopoderosa; pero EEUU no podría parar la actividad de sus empresas, ni el desarrollo de nuevos modelos de lenguaje, ni según qué aplicaciones, y Europa tampoco", prosigue.

"Todos los países que sean democráticos y respeten los derechos humanos y se comprometan con sus ciudadanos tienen que estar pensando ya muy seriamente cómo regular los usos de la IA y cómo invertir dinero público para que no quede en manos de las grandes corporaciones, que es lo que está sucediendo ahora", sostiene el catedrático.

"Se está haciendo mucha insistencia en la ética de la IA y me parece imprescindible porque las tecnologías de IA nos enfrentan a cosas nuevas, a dilemas o circunstancias que antes no se habían producido en nuestra vida ordinaria o en nuestro entorno profesional, y sirve para ir tomando conciencia, para ir orientando el desarrollo legislativo y normativo, pero nunca puede sustituirlo". Realmente, el control que a Barro le preocupa que se pierda es el del gobierno frente a las grandes corporaciones: "De lo que debe ser y no, de dónde se debe investigar y no, de hasta dónde podemos llegar y dónde tenemos que pararnos".

[object Object]

"La inteligencia artificial es un limbo jurídico""Sin regulación me parece mal porque es un peligro", señala el letrado Daniel García, que presenta un trabajo sobre ella

"A día de hoy no hay normativa. La inteligencia artificial (IA) es un limbo jurídico. Es un jardín sin flores en el que cualquiera puede hacer lo que le apetezca", lamenta el letrado pontevedrés Daniel García, quien acaba de presentar su trabajo fin de máster sobre esta tecnología, los 'smart contracts' y la importancia de los mismos para el trabajo de abogados y operadores jurídicos.

En “Inteligencias Artificiales y smart contracts, ¿condenados a entenderse?”, que presentó en la Universidad Camilo José Cela, repasa la historia y desarrollo de la inteligencia artificial, el concepto de IA desde el punto de vista jurídico, desde las instituciones comunitarias, el anteproyecto para su reglamento fijándose en la clasificación de sistemas de IA de alto riesgo o incluso prohibidas.

"Critico –añade García– que no hay suficiente regulación. Hay un intento por la UE pero no se dan puesto de acuerdo". Desde su punto de vista “sin regulación me parece mal porque es un peligro. La gente hará lo que le apetezca sin tener en cuenta las peculiaridades de IA".

Pararla tampoco parece ya una alternativa, según su punto de vista. "Una IA sin regulación es peligrosa. Si se frena, la tecnología no se para sino que busca otros subterfugios” que entonces sí escaparían al control y regulación", matiza.

Con el fin de entender la importancia del asunto, plantea una cuestión directa y sencilla: "Qué pasará el día de mañana cuando a un influencer le suplanten la identidad, la cara y la voz hasta el punto de no hacerlo reconocible diciendo en una entrevista algo controvertido. ¿Qué mecanismos va a haber para saber que es un 'fake'?".

Imaginemos que lo que comenta el 'fake' es susceptible incluso de ser penado legalmente. ¿Cómo se conseguirá demostrar que él no ha dicho eso y ocurrirá algo y qué a la persona o entidad que utilizó la tecnología para suplantarlo? ¿O solo recaerá la responsabilidad en la plataforma?

No son las únicas preguntas, Daniel García también nos pide que nos paremos a reflexionar sobre “¿Qué va a ocurrir con las obras realizadas por inteligencia Articial?¿Va a haber derechos de autor o no?”.

En estos tiempos de guerra en Europa, otro punto importante es si debe estar prohibida como arma. "La ONU_considera que la IA debe estar prohibida para el uso militar. Rompe la barrera psicológica de apretar el gatillo o no. Si lo hace una máquina, ¿qué ocurre?", plantea este joven que trabaja para el despacho Lois Carrera Abogados.

Para ello, pide recordar el incidente en la guerra entre Ucrania y Rusia cuando cayeron proyectiles en territorio polaco: "¿Qué hubiese ocurrido si la defensa de Polonia estuviese activada para responder automáticamente si cae un misil?".

García no es un apocalíptico. Recuerda que "se asemeja a cuando Internet nació. La gente le tenía miedo porque no había regulación. La inteligencia artificial de aquí a diez años estará más desarrollada, en las actividades del día a día".