IA y desinformación
Advertencia del fabricante de ChatGPT: los ciberdelincuentes ya usan la IA para tratar de manipular las elecciones en Estados Unidos
OpenAI asegura que ha neutralizado más de 20 campañas de influencia encubiertas alrededor del mundo, si bien no habían logrado "atraer la participación viral"

Trump vuelve a atacar a los migrantes indocumentados en el estado clave de Wisconsin
Las campañas de influencia y manipulación política se apoyan cada vez más en la inteligencia artificial (IA). OpenAI, la compañía detrás del ChatGPT, alertó este miércoles de que grupos de ciberdelincuentes están usando sus herramientas tratar de interferir en las elecciones presidenciales que Estados Unidos celebra el próximo 5 de noviembre.
En su último informe, la firma dirigida por Sam Altman asegura haber neutralizado este año más de 20 intentos en los que ciberactores vinculados a Estados se habrían servido de la IA para generar desinformación sobre el proceso electoral y verterla en las redes sociales o para depurar y perfeccionar malware, los programas informáticos maliciosos con los que se articulan los ciberataques.
La advertencia de OpenAI va en línea con el estudio publicado por Microsoft, su socio comercial, a principios de año. En él se señalaba que piratas informáticos vinculados a países como Rusia, China, Irán o Corea del Norte están explotando las prestaciones de ChatGPT para detectar víctimas y optimizar sus ataques.
Alcance mundial
Aunque la batalla electoral entre Donald Trump y Kamala Harris centra los focos, el informe de OpenAI remarca que los usos maliciosos de su IA generativa van más allá de EEUU. Así pues, entre los casos neutralizados había operaciones encubiertas que apuntaban a los procesos democráticos en la Unión Europea, Ruanda, Venezuela o Escocia. Detrás había desde cibercriminales vinculados a la inteligencia iraní a empresas comerciales de Israel.
La start-up también ha detectado intentos de acceder a las credenciales de sus empleados, incluso un ataque perpetrado por un rival con sede en China.
Influencia limitada
No obstante, OpenAI remarca que ninguna de las operaciones de influencia detectadas ha sido capaz de "atraer la participación viral o crear audiencias sostenidas". "Los actores de las amenazas siguen evolucionando y experimentando con nuestros modelos, pero no hemos visto pruebas de que esto haya dado lugar a avances significativos en su capacidad para crear malware sustancialmente nuevo o crear audiencias virales", reza el informe.
El único caso que sí logró viralizarse, aseguran, fue una campaña en la que parecía mostrar que trolls rusos estaban utilizando los sistemas de OpenAI para fabricar publicaciones favorables a Trump en X, la red social también conocida como Twitter. Sin embargo, se trataba de una "afirmación falsa", según la compañía.
- Ni La Moraleja ni La Finca: esta es la urbanización más lujosa de Madrid que lleva décadas oculta
- La polaca Pesa y la india Jupiter allanan el camino a Sidenor y evitan lanzar una opa sobre Talgo
- La Junta de Andalucía se enfrenta al Gobierno y no expropiará su suelo para derribar el Algarrobico
- Albert Serra: 'No sé si tiene que existir un Premio Nacional de Tauromaquia, pero había una tradición detrás y tampoco me parecía tan dañino
- El primer colegio de Madrid que incluirá hasta 2º de ESO en El Cañaveral nace con polémica y una protesta vecinal
- Subidas salariales para funcionarios: así quedan los sueldos en los diferentes grupos
- Así es la taberna favorita del Rey Felipe en Madrid: tapas castizas y precios para todos los bolsillos
- Habla el empresario americano que ha comprado un pueblo abandonado en Zamora: 'Prevemos crear 35 puestos de trabajo