Opinión | TECNOLOGÍA

La alucinante alucinación de las máquinas

Las máquinas pueden generar resultados que no se corresponden con nada real: pueden adoptar la forma de imágenes distorsionadas, textos sin sentido o escenarios irreales, pero también análisis muy creíbles que no son más que humo

Imagen de un ChatBot.

Imagen de un ChatBot. / LAURENCE DUTTON/ISTOC.

En los recovecos de la tecnología, surge un fenómeno, complejo e inquietante: las alucinaciones de la inteligencia artificial. Las máquinas generan resultados que no se corresponden con nada real. Se los inventan, vaya. Estas creaciones sintéticas pueden adoptar la forma de imágenes distorsionadas, textos sin sentido o escenarios irreales. Pero también análisis muy creíbles que no son más que humo, artificios de un cerebro de silicio que aún no alcanza la cordura.

Podría parecer una cuestión menor, total, cuánto impacto podría tener una herramienta que es usada por más de 100 millones de personas al mes. Pero ojo, que a medida que esta tecnología se va introduciendo en los distintos rincones de nuestra vida, la cosa puede terminar mal. Estos delirios digitales inquietan porque evidencian las limitaciones de unas máquinas llamadas a convivir e interactuar con nosotros. Imagino a nuestros niños, ávidos de saber, dirigiendo sus preguntas a un oráculo artificial. Normalmente hubiéramos acudido a la gran Wikipedia, ese reducto de la memoria colectiva, cuando la nuestra flaquea -cosa que sucede a menudo-. Pero ¿qué pasaría si tan solícito tutor sintético, en quien habíamos depositado nuestra confianza, les administrase respuestas mendaces, aunque verosímiles? Los tecnólogos postmodernos, amantes de eufemismos, denominan "alucinaciones" a estas fabulaciones de las máquinas. Una metáfora tan poética como efectiva, que inevitablemente atribuye tintes humanos a la fría tecnología.

Resulta desconcertante comprobar cómo este fenómeno ya ha traspasado el terreno de la especulación para adentrarse en la realidad. A principios de año, la compañía aérea Avianca fue demandada por un pasajero que alegaba haber sido golpeado por un carrito de servir de metal a bordo de un vuelo. En la defensa, los abogados citaron al menos otros seis casos para mostrar precedentes, casos que no existían. Habían utilizado un chatGPT para escribirla y el texto estaba plagado de informaciones falsas. Nadie dudó. En esta línea, los dueños de ChatGPT, OpenAI, ya se enfrentan a varias demandas. Llama la atención una por difamación de un locutor de radio de Estados Unidos que afirma que el chat ha generado información falsa sobre él. Que se lo cuenten a la política holandesa y exdiputada del parlamento Europeo, Marietje Schaake, a quien la inteligencia artificial le ha otorgado la distinción de terrorista. No, no se puede cambiar porque no se sabe por qué el sistema se inventa eso.

La pregunta es: ¿si no podemos confiar en estos sistemas podemos incorporarlos masivamente a la toma de decisiones y tenemos previsto incorporarla en la sanidad, las finanzas o la educación? ¿Es demasiado pronto? Aquí las opiniones divergen. Mientras que la industria trabaja para combatir las alucinaciones a la vez que desarrolla producto, algunos expertos consideran que éstas son un factor decisivo; la IA es poco fiable

Estas fake news no surgen intencionadamente, sino que son un subproducto del proceso de entrenamiento del algoritmo. Como éstos no entienden ni el contexto ni lo que están haciendo pueden crear una imagen de una persona con cuatro manos o pies difuminados, y el sistema no sabe que tal cosa no existe. Pero si produce regularmente resultados falsos o distorsionados, ¿cómo podemos confiar en sus juicios sobre las decisiones de libertad condicional o la detección del cáncer?

La antropomorfización consiste en atribuir forma o personalidad humana a algo que no lo es. Dotar de alma y carne a lo que no es más que metal y código. Las alucinaciones son un síntoma de una mente que se descompone, un fallo en la arquitectura de la cognición humana. Aplicar el término a una máquina no solo es un abuso del lenguaje, sino que nos aleja de entender lo que realmente está sucediendo en esos circuitos. La escritora y activista Naomi Klein, señala que al utilizar términos como "alucinación" estamos alimentando una de las mitologías más peligrosas de la era digital: la idea de que estas máquinas, entrenadas con todo lo que hemos escrito y dicho, darán lugar a una inteligencia superior que nos catapultará hacia un nuevo estadio evolutivo. Es como si estuviéramos escribiendo un guion de ciencia ficción en el que somos, irónicamente, los extras prescindibles.

Para navegar este nuevo paisaje tecnológico, es crucial que mantengamos los pies en la tierra. Mejorar la confianza en estos sistemas es un desafío complejo, pero para tener un diálogo genuino sobre sus capacidades y limitaciones, debemos empezar por no atribuirles rasgos humanos. No son ni dioses ni monstruos; son herramientas que hemos creado, y como tales, su potencial y sus riesgos son reflejos de nuestras propias ambiciones y miedos. Así que la próxima vez que oigan que una inteligencia artificial ha "alucinado", recuerden: las máquinas no sueñan, no desean, no se descomponen. Son espejos en los que vemos reflejadas nuestras propias virtudes y defectos. Y en ese reflejo, quizás, está la clave para entender no solo a estas nuevas entidades, sino también a nosotros mismos.