CONTROL DE FRONTERAS

Predecir las migraciones: el controvertido sistema de IA que desarrolla la UE

La UAB coordina un proyecto que pretende pronosticar los flujos migratorios hacia Europa para agilizar la respuesta de oenegés y municipios

El programa ITFLOWS, que aseguran no podrán utilizar los gobiernos, plantea dudas y riesgos sobre su impacto en los derechos humanos

Personas migrantes caminan por la playa del Tarajal, en Ceuta, el pasado 17 de mayo de 2021.

Personas migrantes caminan por la playa del Tarajal, en Ceuta, el pasado 17 de mayo de 2021.

Carles Planas Bou

Ya en 1956, la mente del escritor Philip K. Dick imaginó en ‘El informe de la minoría’ un mundo en el que la policía era capaz de predecir los crímenes antes que ocurriesen. En 2023, la Unión Europea (UE) prevé empezar a adoptar en sus fronteras un sistema de Inteligencia Artificial (IA) que adivine los flujos migratorios hacia el continente y las posibles tensiones derivadas, una controvertida herramienta algorítmica que está siendo desarrollada con destacada participación catalana.

El proyecto, conocido con el nombre de ITFLOWS, busca recabar información sobre las corrientes migratorias para gestionar de forma más óptima la llegada, reubicación e integración de esas personas que tratan de llegar a Europa sorteando los peligros del Mar Mediterráneo, donde el año pasado murieron ahogadas o desaparecieron unas 1.924 personas, según la ONU. Para ello cuenta con una subvención pública de 4,87 millones de euros.

Esta tecnología completará la construcción de la llamada ‘frontera inteligente’, el sistema de vigilancia que se está desplegando en España, Italia y Grecia, los países de la UE que hacen frontera con África. Esa tecnificación de las fronteras europeas incluye otras medidas controvertidas como el uso de cámaras de reconocimiento facial, drones de videovigilancia o la extracción de datos personales y biométricos.

Liderado por la UAB

En septiembre de 2020, Bruselas formó un consorcio compuesto por hasta 13 universidades, institutos económicos, organizaciones humanitarias y la empresa tecnológica griega Terracom para desarrollar el proyecto, coordinado por la Universitat Autònoma de Barcelona (UAB), financiada con casi 761.000 euros. Apodado EUMigraTool, el sistema pretende prever futuros flujos hacia Europa basándose en datos públicos migratorios, económicos y demográficos de organizaciones como Eurostat, el Fondo Monetario Internacional (FMI) o Naciones Unidas. También pretende "detectar riesgos de tensiones derivadas de la migración" mediante el análisis de lo que se dice en las redes sociales.

Una vez terminada, esta herramienta de predicción será accesible solo a oenegés de la UE y a municipios de las zonas de llegada de migrantes para ayudar a agilizar su respuesta. En ningún caso, "ni gobiernos nacionales ni instituciones europeas tendrán acceso a ella", según remarca a EL PERIÓDICO la coordinadora del proyecto, Cristina Blasi. Las predicciones que haga la máquina no serán acatadas a rajatabla, sino supervisadas por un usuario y usadas para ayudar en la toma de decisiones.

Por otro lado, el proyecto cuenta con la participación de tres oenegés, que han entrevistado a más de un centenar de migrantes y solicitantes de asilo para conocer los factores que impulsan la migración. Esa información, dicen, "no se utilizará para predecir flujos", sino para los informes públicos donde esas oenegés elaborarán periódicamente recomendaciones de políticas de integración para gobiernos nacionales y la Comisión Europea, según explica a este diario Irene Vití, responsable de gestión de ITFLOWS de Open Cultural Center. Esta organización humanitaria, radicada en Barcelona y Grecia, ha recibido una subvención pública de 116.800 euros.

Múltiples riesgos

El sistema plantea algunas dudas y riesgos. "El consorcio es plenamente consciente de los riesgos y de sus potenciales impactos en términos de puesta en peligro de los derechos humanos", reza un documento de enero de 2021 elaborado por el consejo ético de ITFLOWS y destapado por la oenegé Disclose. En otros informes se advierte del peligro de que los "Estados miembros utilicen los datos facilitados para crear guetos de inmigrantes" así como para "estigmatizar, discriminar, acosar o intimidar".

El acceso de las oenegés a información personal de las refugiadas –que puede incluir detalles de carácter étnico, religioso o sexual— es especialmente sensible. Es por eso que se han propuesto medidas para evitar usos indebidos de las entrevistas, como pedir consentimiento a los migrantes y anonimizar esos datos para que no se les pueda identificar. Un documento interno del comité ético apunta que esas entrevistas personales servirán para "mejorar o perfeccionar la capacidad de predicción", aunque Emma Teodoro, líder del comité ético de ITFLOWS matiza que "no servirán para el modelo, pero sí será información útil a tener en cuenta cuando elaboremos informes".

El uso de la IA para hacer predicciones también despierta sospechas en el sector. "Servirá para analizar los patrones migratorios del pasado, no para predecir los que vendrán", explica a este diario Ana Valdivia, profesora de Inteligencia Artificial, Gobierno y Política en el Oxford Internet Institute. La experta señala como problemático el hecho de que ITFLOWS también use las búsquedas en Google para su supuesta predicción. "Correlación no implica causalidad, que la gente busque temas de migración no significa que vayan a migrar", añade.

Otra duda no menor es qué pasará cuando finalice la financiación del proyecto en agosto de 2023. La intención de sus impulsores es que ITFLOWS y su herramienta predictiva pase a manos de las oenegés para que coordinen su acción. Las entrevistadas discrepan de si la herramienta será un prototipo o estará ya lista para ser usada, pero coinciden en que su destino es incierto. "No hemos podido concretar cuál es el mejor camino, pero lo que no haremos es darla a los gobiernos", asegura Blasi.

Militarización de las fronteras

El temor a que ITFLOWS se pueda usar con fines discriminatorios también se debe al interés que la herramienta ha despertado en Frontex, cuyos datos ya han sido usados para testearla. La Agencia Europea de Guardia de Fronteras y Costas, punta de lanza de militarización de las fronteras auspiciada por Bruselas, figura en los documentos internos del proyecto como miembro de su Junta de Usuarios. También la Agencia Europea para el Asilo (EUAA) –compuesta por representantes de los Estados miembro y de la Comisión Europea–, haciéndolas partícipes en el "diseño" y "validación" de la herramienta predictiva. "Nos consta que están interesados en el proyecto”, asegura Teodoro.

El historial de Frontex preocupa. Su anterior director ejecutivo, Fabrice Leggeri, tuvo que dimitir en abril tras ser acusado de haber encubierto abusos de los derechos humanos contra refugiados y migrantes. Una investigación periodística del alemán ‘Spiegel’ destapó en agosto que los guardacostas griegos realizaban devoluciones en caliente ilegales en alta mar, que Frontex era consciente de ello y que silenció el escándalo, incluso mintiendo ante el Parlamento Europeo. Todo sufragado con dinero del contribuyente.

La coordinadora del proyecto niega que Frontex termine siendo un usuario de este sistema de predicción migratorio. "Como máximo le podremos dar informes bianuales para explicarles los resultados que hemos encontrado", explica Blasi, investigadora y profesora de Derecho en la UAB.

La líder del comité ético apunta hacia otras opciones. "Hoy por hoy, Frontex solo podría usarla con fines humanitarios (…) no para el control de fronteras. Si alguien coquetea con un uso securitativo hemos tomado medidas para limitar riesgos", apunta Teodoro, que advierte de que un mal uso de la herramienta causaría "problemas legales". "Es imposible poner la mano en el fuego de que no habrá un potencial mal uso de la tecnología cuando acabe el proyecto".