Entrevista

"Ya es muy difícil distinguir si quien escribe es un humano o una inteligencia artificial"

"Los profesores deben ser conscientes de la realidad: ya no tiene sentido pedir trabajos que los alumnos resolverían con búsquedas en la red"

Irene Díaz.

Irene Díaz.

Vicente Montes

Irene Díaz, catedrática de inteligencia artificial en

Universidad de Oviedo

y directora del departamento de Informática de la Universidad de Oviedo, es una de las mayores expertas en Asturias en lo que está llamado a revolucionar nuestra vida cotidiana y que cambiará para siempre nuestra relación con las máquinas, e incluso el modo en que afrontamos procesos creativos: la inteligencia artificial. En los últimos meses el debate sobre esta tecnología se ha intensificado con la aparición de aplicaciones capaces de generar contenidos creativos (imágenes y texto), equiparables a los que produciría un ser humano.

–¿Qué es lo que hace singular a una inteligencia artificial respecto a otros programas o aplicaciones informáticas que usamos a diario?

–La inteligencia artificial se viene utilizando de forma intensiva en lo que llevamos de siglo, y su uso ha permitido resolver muchos problemas de distinta índole. Pero ahora su empleo comienza a democratizarse totalmente, se está utilizando de forma masiva por la población. Cada tres o cuatro meses aparece una nueva herramienta que revoluciona todas las anteriores, y este "boom" tecnológico tan potente se encuentra al servicio de todos. Comenzamos con esas aplicaciones que con una descripción de texto generan una imagen. Ahora, ChatGPT está revolucionando el procesamiento del lenguaje natural, que era algo en lo que ya se trabaja intensamente. La novedad es que ahora está para todos.

–Se ha dicho que la inteligencia artificial supondrá la principal revolución de esta década. ¿Es para tanto?

–Basta pararse a pensar un poco en la trayectoria de esta tecnología, mirar lo que hace 20 años no teníamos y sí tenemos ahora. Y ni siquiera somos conscientes de que la utilizamos todos los días.

–¿Por ejemplo?

–Por ejemplo, cuando desbloqueamos un móvil con nuestra cara utilizando un reconocimiento facial, o cuando hacemos una búsqueda en Google; ahí también hay inteligencia artificial. O cuando un banco decide si nos da un crédito o no, o nos llaman con fines publicitarios; tras los criterios de selección hay métodos de inteligencia artificial. Estamos rodeados de muchísimas aplicaciones que la utilizan. También en el ámbito médico. ¿De aquí a diez años? Yo le digo que no me atrevería a predecir siquiera en uno o dos años. Dada la velocidad a la que estamos yendo podemos considerar que es una gran revolución.

–¿En qué consiste el salto que se ha producido en este último año?

–Hasta ahora, lo que hacíamos en inteligencia artificial suponía un proceso de imitación. Todas estas técnicas se basan en el hecho de que tenemos muchísimos datos. Y ese gran salto tiene tres pilares. Por un lado, tenemos unos volúmenes de datos impensables hace años, gracias a las tecnologías de captura de esos datos. Si tuviéramos esos datos y no pudiésemos usarlos no servirían de mucho. Al mismo tiempo, se han producido avances en informática que nos permiten gestionar esos datos, y se han mejorado los algoritmos de inteligencia artificial. Hasta ahora teníamos métodos que imitaban comportamientos y realizaban actividades mecánicas de los humanos. Pero ahora hablamos de inteligencia artificial generativa.

–Explíquese.

–Es lo que ocurre con

ChatGPT

. Es un pequeño paso, pero se genera nuevo conocimiento partiendo del que tenemos. No es una generación espontánea: utiliza un volumen de datos extraordinario que tratados con métodos de aprendizaje muy avanzados consigue resultados que se diferencian de aquella información de la que la inteligencia artificial aprende. Eso la hace mucho más potente.

–El problema está en que no distinguiremos una respuesta humana de la que produce una máquina.

–ChatGPT ya produce respuestas que son difíciles de diferenciar de las que produciría un humano. En inteligencia artificial siempre hemos hablado del "test de Turing", que fue planteado por Alan Turing a mitad del siglo XX. Y ese es un problema que está muy relacionado con ChatGPT. La cuestión es: ¿cómo diferenciar una máquina de un ser humano en un contexto conversacional? Si un observador externo que solo conociese las respuestas no fuese capaz de diferenciarlos, entonces es que la máquina habría igualado a la persona. Ese test subyace en muchas cuestiones de seguridad. Por ejemplo, en los navegadores web, cuando intentas comprar algo, aparecen los códigos "captcha", que te piden que identifiques una secuencia de números y letras distorsionada, o que identifiques objetos en varias imágenes. Eso es una aproximación al "test de Turing" para evitar que "bots" realicen acciones donde es preciso saber que hay un humano al otro lado. Pero ya hay quienes dicen que el test está superado, que un texto de ChatGPT es difícil de diferenciar del que realizaría una persona. Esto no significa que ya sea indistinguible en todos los casos.

–Bueno, comete muchos errores en la información que genera en ocasiones…

–¿Vamos a pedirle que lo haga todo bien? ¿Lo hacemos nosotros? De hecho, un sistema inteligente que fuera indistinguible de la inteligencia humana debería equivocarse…como lo hacemos los humanos con frecuencia. En cualquier caso, estoy segura de que mejorará, démosle tiempo ….

–¿Y no asusta que lleguen a suplantar actividades creativas humanas?

–No me plantearía eso. Ha habido avances que han producido cambios sociales importantísimos. Piense en el motor de explosión, o en la cantidad de trabajos que desaparecen porque surgen tecnologías. Tampoco podemos volar y no nos preocupa que haya aviones que lo hagan, y los utilizamos. No me preocupa que las Inteligencias Artificiales nos superen. Eso sí, tendremos que realizar un proceso de adaptación.

–¿Qué potencialidades futuras se prevén? ¿En qué campos puede tener más desarrollo?

–En todo. Recientemente el Premio Princesa de Investigación Científica y Técnica se concedió a científicos expertos en inteligencia artificial y aprendizaje profundo: Geoffrey Hinton, Yann LeCun, Yoshua Bengio y Demis Hassabis. Ese "aprendizaje profundo" o "deep learning" está relacionado con las tecnologías que emplean Midjourney (inteligencia de creación de imágenes) o ChatGPT. Una de las aplicaciones de ese aprendizaje profundo, por ejemplo, consiste en descifrar la estructura de las proteínas, y con eso se espera que se produzca un vuelco en el diseño de medicamentos. Pero la inteligencia artificial se usa ya en agricultura, en ganadería, en economía. La usas sin saberlo si tienes un coche medianamente nuevo…

–Vale, pero imagine que se produce un fallo: se descifra erróneamente una proteína y se produce un medicamento que causa víctimas. ¿Quién es el culpable?

–Ese es un problema ético y legal muy candente. Lo mismo pasa con el vehículo autónomo. Todos los artilugios que se basan en inteligencia artificial tienen detrás una lógica en las decisiones que se toman. Pero imagine que un coche tiene implementado un sistema que en una situación de riesgo decide frenar, pero puede ser que si frena el conductor tenga una lesión muy grave. ¿Hay que valorar si frenar o atropellar a una persona? ¿Y es lo mismo si detecta a una persona delante del coche o a cinco? Son cuestiones éticas que deben estar resueltas antes de que se implementen tecnologías de forma masiva. ¿Quién tiene la culpa? Eso es muy difícil de determinar. Yo insisto mucho en que quienes producen inteligencia artificial tienen que saber muy bien lo que hacen esos procesos. Hay sistemas que deciden si a una persona se le va a administrar un tratamiento oncológico u otro, o ninguno. Determinar la responsabilidad ahí es muy complejo, y vamos a tal velocidad que todas las adaptaciones van un poco por delante de estos debates.

–¿Realmente se conoce cómo toman decisiones las Inteligencias Artificiales?

–Debería ser así, pero lo que ocurre es que estos sistemas que dan resultados tan sorprendentes, y tan buenos, son sistemas de "caja negra". No es fácil explicar por qué esos sistemas llegan a una conclusión u otra. Y sobre todo es difícil explicárselo a alguien que no conoce cómo funciona. Hay tanta necesidad de profesionales expertos en inteligencia artificial que algunas veces se trabaja con "cajas negras" sin conocerlas profundamente y eso tiene sus riesgos. Y hay otra cuestión relevante: los datos sobre los que se toman decisiones han de ser buenos y representativos del problema que se quiere resolver; si no lo son difícil será extraer algo bueno. Por eso se deben tener en cuenta todos los aspectos involucrados en el éxito de un sistema inteligente y hay que saber explicarlo desde un punto de vista técnico.

–Conocerá la historia del técnico de Google despedido tras asegurar que una inteligencia artificial desarrollada por la empresa era indistinguible de un humano… ¿Cree que ya hemos superado ese umbral?

–El ingeniero de Google además afirmaba que el sistema artificial tenía consciencia, que no es lo mismo que producir una salida, un texto, indistinguible de la que produciría un humano. En todo caso, estamos comprobando que en aspectos concretos es muy difícil distinguir lo que escribe un humano de lo que produce una máquina inteligente. Algunos científicos ya están pensando en una redefinición del "test de Turing". Estamos llegando a aquella frontera que hace un siglo visualizaba un científico muy brillante. ¡Quizá Turing imaginó ChatGPT! Supone todo un reto.

–La computadora Hal 9000, de "Odisea en el espacio" fue sinónimo de pesadilla tecnológica.

–Siempre que llega una tecnología tan disruptiva hay miedos. Estamos haciendo cosas que hace 20 años ni soñábamos. No tenemos que ser temerosos, sino usarlo para el bien.

–Usted forma parte de un grupo de la Universidad de Oviedo, junto a Roger Campione (Catedrático de Filosofía del Derecho) y Miguel Ángel Presno Linera (Catedrático de Derecho Constitucional) que empezará a analizar las implicaciones jurídicas de las inteligencias artificiales. ¿Ya se han producido conflictos?

–Jurídicamente no podría valorarlo, porque no soy experta. pero creo que es enriquecedor y necesario que los juristas hablen con los expertos y viceversa. Puede haber esos conflictos y hay cuestiones éticas que analizar sobre ese uso. Además, este campo se está moviendo muchísimo porque los cambios están siendo tan vertiginosos que hay un esfuerzo ingente por adaptar el marco jurídico. Sin irme al campo jurídico, hay cuestiones relevantes de supervisión de las Inteligencias Artificiales, como que las decisiones que se tomen estén libres de sesgos de género o de otro tipo, o que tengan sensibilidad medioambiental.

–Es decir, que también hay que "educar" a las Inteligencias Artificiales.

–Claro, y situarlas en el contexto en el que estamos: construirlas de acuerdo con lo que está sucediendo o los problemas sociales que afrontamos.

–Pues ChatGTP supone un problema para los docentes. No hay forma de saber si los textos que produce se tratan de un plagio, porque técnicamente no lo son: son una reinterpretación de información disponible. Básicamente, hace lo mismo que cualquier estudiante a la hora de elaborar un trabajo…

–Los profesores tenemos que ser conscientes de eso. En mi campo va a ser difícil que me puedan entregar algo que hagan con ChatGTP, por el momento…, que ya hace muchas cosas relacionadas con la informática, como generar programas en lenguajes de programación con Python. Pero quizás estamos pidiendo a los alumnos cosas que ya no deberíamos pedir. Quizás no tiene sentido plantear un trabajo, que con tres o cuatro búsquedas por internet ya podrían resolver. Ya existían programas que reformulan textos escritos. Tenemos que ser conscientes de la realidad: a lo mejor, preguntar otras cosas, o de otra forma…

–Como prohibir las calculadoras…

–¿Por qué hay que enseñar a repetir a mano el procedimiento de calcular una raíz cuadrada? Quizás ya no tenemos que pedir cosas como un resumen en 500 palabras sobre qué significa una inteligencia artificial. A lo mejor hay que partir de que eso ya no sirve e ir a otro tipo de actividades.