Estafa IA

La estafa con inteligencia artificial que suplanta la voz de familiares y amigos: ahora afecta también a personas comunes

El 'fraude del CEO' ha dado un paso más y está llegando a personas comunes a través de técnicas muy sofisticadas con inteligencia artificial

La estafa que puede comenzar con un simple golpe en el coche

Las estafas con inteligencia artificial cada vez incorporan técnicas más elaboradas

Las estafas con inteligencia artificial cada vez incorporan técnicas más elaboradas / Bcn

Los fraudes del CEO representan algunos de los golpes más increíbles del mundo de la ciberdelincuencia. A diferencia de los ciberataques dirigidos a personas comunes, que generalmente implican el envío masivo de mensajes idénticos, estos fraudes involucran engaños más elaborados. Las bandas de delincuencia pueden utilizar técnicas avanzadas, como la suplantación de voz o imágenes de ejecutivos de grandes empresas, para engañar a los empleados y lograr que realicen transferencias o abran puertas de acceso a los sistemas operativos.

Casos notables y evolución del fraude

A lo largo del tiempo, estos fraudes se han perfeccionado y aumentado en complejidad, llegando a realizarse operaciones de cine. A principios de año, la Policía de Hong Kong documentó un caso en el que una multinacional financiera fue víctima de un robo de 25 millones de dólares. Los atacantes organizaron una videollamada con un alto ejecutivo de la empresa, en la que participaron el supuesto director financiero y varias personas más para discutir una serie de operaciones. Tras demostrar conocimientos detallados sobre la empresa, el supuesto director financiero, ubicado en Londres, solicitó al alto ejecutivo que realizara una serie de transferencias. Ninguno de los participantes era real; todos habían sido suplantados mediante deepfakes de inteligencia artificial.

Expansión del fraude del CEO a ciudadanos comunes

Inicialmente, los fraudes del CEO eran menos frecuentes, pero más elaborados que las estafas comunes, implicando mayor preparación, riesgo y recompensa. Sin embargo, las fuerzas de seguridad han comenzado a detectar tácticas similares, como los deepfakes y suplantaciones con inteligencia artificial, en estafas dirigidas a ciudadanos comunes. Los Mossos d'Esquadra han alertado sobre el uso de deepfakes de audio en llamadas telefónicas, donde se simulan voces de familiares para obtener datos personales o transferencias de dinero. Este tipo de estafa es especialmente peligroso y podría aumentar en el futuro, según detalla José Ángel Merino, director del área de delitos económicos de los Mossos. Incluso se han reportado casos como el de un trabajador de una gasolinera que recibió un audio suplantando a un compañero de trabajo, solicitando una transferencia de dinero.

El Instituto Nacional de Ciberseguridad (Incibe) también ha registrado casos similares, donde los delincuentes utilizan técnicas de inteligencia artificial para suplantar la voz de personas conocidas. Las nuevas herramientas de inteligencia artificial permiten a los ciberdelincuentes replicar la voz de cualquier persona si logran acceder a una pequeña muestra de audio. Este audio puede provenir de publicaciones en redes sociales o de llamadas telefónicas grabadas.

Prevención ante este tipo de estafas

Para prevenir este tipo de ataques, es crucial seguir algunas recomendaciones básicas: siempre verificar la información recibida, tanto por mensajes escritos como por audio, y utilizar preguntas secretas o palabras clave que solo conozcan los interlocutores. El Incibe aconseja acordar una palabra clave entre familiares y amigos para verificar la identidad en comunicaciones sospechosas y alertar a los conocidos si se reciben llamadas sospechosas. Además, nunca se deben proporcionar datos personales o financieros a través de canales no oficiales. Si se han proporcionado datos bancarios u otra información relevante a posibles ciber estafadores, se debe comunicar de inmediato al banco y denunciar los hechos a la Policía.