INTELIGENCIA ARTIFICIAL

Así fabrica bulos la inteligencia artificial: "Van a parecer reales"

La tecnología ya permite crear noticias, argumentaciones, imágenes y vídeos manipulados de forma rápida, gratuita y masiva.

"Seguramente sea el mayor desafío al que nos hemos enfrentado como periodistas", explica Montse Mera, profesora de la UCM.

DeepMind: La Inteligencia Artificial revoluciona las ciencias de la vida

DeepMind: La Inteligencia Artificial revoluciona las ciencias de la vida

Alberto Muñoz

Alberto Muñoz

La idea puede ser, por ejemplo, sembrar la duda sobre si el presidente del Gobierno es o no corrupto. El 'método tradicional' para desinformar en la última década dictaría una campaña orquestada en redes sociales por medio de una horda de bots que, a través de tuits, posts de Facebook o vídeos y mensajes reenviados en WhatsApp, replicasen la 'fake new'. Una inteligencia artificial, sin embargo, no se tiene por qué conformar con los 280 caracteres de Twitter: es capaz, en apenas unos segundos, de dar forma al bulo fabricando un artículo completo. Y nada le impide hacer 20, 50 o 100 versiones más para plagar la red con esa 'nueva verdad' que se le ha enseñado.

Ese siguiente nivel de la desinformación en redes sociales todavía no está extendido, pero ya es posible técnicamente. En una era en la que inteligencias artificiales como ChatGPT o DALL-E 2 tienen la capacidad de crear razonamientos engañosos de decenas de páginas sobre cualquier tema, simular vídeos de personalidades diciendo cosas que nunca dijeron o fabricar millones de datos en cuestión de segundos, el daño que puede llegar a ocasionarse a la calidad de nuestras democracias "es ciertamente inquietante", dicen los expertos.

Frente a ello, frente a esos bots profesionalizados por la inteligencia artificial y a un potencial nuevo aluvión de contenido falso en la red, una "buena educación en el consumo de información" en internet para el ciudadano y el "periodismo, que debe actuar más que nunca como verificador", son esenciales.

Sin embargo, una herramienta tan poderosa como la IA también podría utilizarse en la otra dirección, pues lo que cree depende del 'alimento' de datos que se le de y de las instrucciones que tenga.

De esa forma, si pueden crear bulos, ¿significa eso que también pueden reforzar la labor de los periodistas y ayudar a detectarlos? ¿Cómo puede afectar a ciudadanos y profesionales la ola de desinformación aparentemente "plausible" que se avecina?

"Da mucho vértigo todo lo que estamos viendo. Vamos a sufrir una transformación brutal como sociedad porque todos los sectores de la sociedad van a verse afectados por la revolución de la inteligencia artificial. En nuestro caso, en el periodismo, seguramente sea el mayor desafío reciente al que nos hemos enfrentado", reconoce a EL PERIÓDICO DE ESPAÑA Montse Mera, profesora de la Universidad Complutense de Madrid e integrante de un grupo de investigación sobre las posibilidades y riesgos de las IA aplicadas al periodismo.

En la base del trabajo periodístico está verificar la credibilidad de la fuente de la que se recibe la información y lo que dice: el político y su discurso, por ejemplo, o la empresa y sus resultados. Cuando Google, las redes sociales y los creadores de contenido ampliaron las posibilidades, también crecieron los riesgos. Ahora que una ola de desinformación es posible gracias a la creación de datos, razonamientos, hechos y declaraciones que nunca fueron verdad, el reto, dice la profesora de la UCM, puede ser mayúsculo.

Ya no solo se va a poder contratar a empresas para que envíen a un millar de bots a diseminar por Twitter mensajes cargados de mentiras, odio o ataques personales, como ocurrió, por ejemplo, con algunos jugadores del F.C. Barcelona por parte de su propio club en el caso Barçagate. Ahora esos mismos trols podrán crear argumentaciones aparentemente sólidas o difundir fotografías creadas artificialmente y manipuladas al detalle.

"El problema es que todo lo que creen estas inteligencias artificiales va a parecer muy real. Ya se puede, por ejemplo, crear un vídeo deepfake de Volodímir Zelensky pidiendo a los soldados ucranianos que se rindan a la invasión rusa, y tenemos que adaptarnos todos a esta nueva realidad. Tanto medios de comunicación como ciudadanos debemos ser conscientes de lo que esto significa", explica a este periódico Nic Newman, investigador sénior del Instituto Reuters para el Estudio del Periodismo y ex jefe de Producto y Tecnología de la BBC.

Un ejemplo de lo que explica el periodista británico sería este mensaje de Navidad falso de la difunta reina Isabel II publicado el año pasado por el canal de televisión Channel4 para concienciar sobre los peligros de los vídeos deepfake:

La IA, una "oportunidad" periodística

A pesar de los riesgos, según uno de los últimos estudios publicados bajo la dirección de Newman la inteligencia artificial se percibe dentro del entorno de los medios de comunicación como una de las grandes revoluciones de los próximos años.

En su informe de Predicciones y Tendencias dentro de los Medios, el Periodismo y la Tecnología de 2021, el Instituto Reuters aseguró que 7 de cada 10 editores nombraban la IA como una fuente de posibilidades para su sector. Solo un 18% nombraba el 5G y un 9% los dispositivos tecnológicos como las gafas de realidad virtual.

"La tecnología siempre llega para ampliar nuestras capacidades. Igual que en malas manos la inteligencia artificial puede llevarnos a un escenario indeseable, también puede ayudarnos a hacer mejor nuestro trabajo", explica Newman.

Con la inteligencia artificial adecuada se puede, por ejemplo, bucear dentro de una base de datos para detectar irregularidades; conseguir informes y sus puntos clave en cuestión de segundos; detectar tendencias en redes sociales o, incluso, crear infografías simples en base a una información previa. Y no solo eso: también se puede actuar de contrapoder contra las inteligencias artificiales que tratan de confundir, pues, si son 'alimentadas' correctamente, podrían vincularse únicamente a fuentes de información fiables o detectar datos en un texto que hayan sido copiados o no sean rigurosos.

"Es muy de periodistas querer concienciar a la gente de la importancia de que debe darnos credibilidad por nuestra profesión, pero no sé si el resto del mundo lo ve de la misma manera. Las personas pueden mentir tanto como una IA, y tenemos que reconocer que hay medios de comunicación que no se han portado nada bien en ese sentido. Tienen sus propias agendas de intereses, igual que quienes estén detrás de las campañas de desinformación, y, por tanto, también es responsabilidad del ciudadano preocuparse por encontrar las fuentes de información más fiables", dice Newman.

Enseñar manipulación para protegerse

Según el último Baremo de Alfabetización Mediática 2022 para evaluar la resistencia por países de los ciudadanos a las campañas de desinformación y las fake news, España ocupa el puesto 15 de 40 con una valoración de 59 puntos por detrás de otras potencias de similar tamaño como Países Bajos, Alemania, Reino Unido o Portugal. Finlandeses, noruegos y daneses encabezan el ranking.

En Finlandia, el país que más confía en sus medios de comunicación y en su clase política, o, más bien, en su capacidad para detectar si están siendo engañados por ellos, Leo Pekkala dirige un departamento gubernamental para velar por los buenos hábitos de consumo informativo de sus ciudadanos.

"Enseñamos a los niños cómo se les puede manipular desde preescolar. Durante todas las etapas de su formación vamos integrando ese concepto en las asignaturas de forma transversal, así les damos herramientas para que puedan identificar mejor cuándo intentan engañarles", explicó a este periódico Pekkala.

Según una reciente encuesta de IRO Research, tres de cada cuatro finlandeses creen en la veracidad de lo que leen en la prensa, dos de cada tres confían en lo que ven en televisión y solo uno de cada dos en lo que escuchan en la radio. Lo que destaca, además, es que solo un 6% de los ciudadanos de Finlandia asocian credibilidad a Google, las redes sociales, los influencers y los blogs.