IA y desinformación

Advertencia del fabricante de ChatGPT: los ciberdelincuentes ya usan la IA para tratar de manipular las elecciones en Estados Unidos

OpenAI asegura que ha neutralizado más de 20 campañas de influencia encubiertas alrededor del mundo, si bien no habían logrado "atraer la participación viral"

Trump vuelve a atacar a los migrantes indocumentados en el estado clave de Wisconsin

Trump vuelve a atacar a los migrantes indocumentados en el estado clave de Wisconsin

Carles Planas Bou

Carles Planas Bou

Las campañas de influencia y manipulación política se apoyan cada vez más en la inteligencia artificial (IA). OpenAI, la compañía detrás del ChatGPT, alertó este miércoles de que grupos de ciberdelincuentes están usando sus herramientas tratar de interferir en las elecciones presidenciales que Estados Unidos celebra el próximo 5 de noviembre.

En su último informe, la firma dirigida por Sam Altman asegura haber neutralizado este año más de 20 intentos en los que ciberactores vinculados a Estados se habrían servido de la IA para generar desinformación sobre el proceso electoral y verterla en las redes sociales o para depurar y perfeccionar malware, los programas informáticos maliciosos con los que se articulan los ciberataques.

La advertencia de OpenAI va en línea con el estudio publicado por Microsoft, su socio comercial, a principios de año. En él se señalaba que piratas informáticos vinculados a países como Rusia, China, Irán o Corea del Norte están explotando las prestaciones de ChatGPT para detectar víctimas y optimizar sus ataques.

Alcance mundial

Aunque la batalla electoral entre Donald Trump y Kamala Harris centra los focos, el informe de OpenAI remarca que los usos maliciosos de su IA generativa van más allá de EEUU. Así pues, entre los casos neutralizados había operaciones encubiertas que apuntaban a los procesos democráticos en la Unión Europea, Ruanda, Venezuela o Escocia. Detrás había desde cibercriminales vinculados a la inteligencia iraní a empresas comerciales de Israel.

La start-up también ha detectado intentos de acceder a las credenciales de sus empleados, incluso un ataque perpetrado por un rival con sede en China.

Influencia limitada

No obstante, OpenAI remarca que ninguna de las operaciones de influencia detectadas ha sido capaz de "atraer la participación viral o crear audiencias sostenidas". "Los actores de las amenazas siguen evolucionando y experimentando con nuestros modelos, pero no hemos visto pruebas de que esto haya dado lugar a avances significativos en su capacidad para crear malware sustancialmente nuevo o crear audiencias virales", reza el informe.

El único caso que sí logró viralizarse, aseguran, fue una campaña en la que parecía mostrar que trolls rusos estaban utilizando los sistemas de OpenAI para fabricar publicaciones favorables a Trump en X, la red social también conocida como Twitter. Sin embargo, se trataba de una "afirmación falsa", según la compañía.