TRIBUNA

IA: De la importancia del “para qué” a las “listas de matar”

Aplicando IA, el análisis estadístico es mucho más rápido y permite procesar una mayor cantidad de datos. Pero no existe garantía de que sus predicciones sean correctas

4
Se lee en minutos
Recreación artística de una Inteligencia Artificial hecha de luz.

Recreación artística de una Inteligencia Artificial hecha de luz. / Generador de imágenes de COPILOT para T21/Prensa Ibérica.

Esta última semana hemos conocido un nuevo e inquietante caso de uso de la inteligencia artificial predictiva. Según una investigación divulgada por el diario israelí Sicha Mekomit, el ejército de Israel ha estado utilizando un algoritmo denominado en español Lavanda, para determinar qué palestinos eran presuntos milicianos de Hamás y convertir en objetivos militares a ellos (un total de 37.000) y a sus residencias. El personal humano dedicaba 20 segundos a analizar cada objetivo de esta “lista de matar”, antes de autorizar un bombardeo.

La IA predictiva es la capacidad que tiene un programa informático de utilizar el análisis estadístico para identificar pautas, anticipar comportamientos y prever acontecimientos futuros. Aplicando IA, este análisis estadístico es mucho más rápido y permite procesar una mayor cantidad de datos. Pero no existe garantía de que sus predicciones sean correctas.

Pensemos por ejemplo en la aplicación de la IA predictiva en meteorología. La IA analiza los patrones climáticos y, en base a millones de datos recogidos durante años, asocia determinados factores con determinados sucesos y define patrones meteorológicos. Es innegable que sus predicciones son cada vez más certeras pero también, que no es infalible.

En el ámbito de la empresa, la IA predictiva es muy útil por ejemplo en la gestión de la cadena de suministros, prediciendo cuándo se producirá la congestión en la carretera o cuándo se necesitan más camiones para satisfacer los picos de demanda. También es muy eficiente en la gestión de inventarios con el objetivo de garantizar las existencias en los momentos de mayor demanda. Y ya lleva muchos años aplicándose en el área de marketing anticipando el comportamiento de los usuarios o las tendencias que marcarán nuevos hábitos de consumo.

Mucho más sofisticado, por ejemplo, es el uso de IA en el área de recursos humanos para predecir la fuga de talento. La complejidad de la información que hay que incorporar al algoritmo es esencial para poder obtener un resultado óptimo. Pero ¿es posible predecir qué personas clave dentro de la organización van a abandonar la compañía en un plazo de seis meses? La respuesta es sí.

Sigamos con este ejemplo. Pensemos en una compañía que utiliza este algoritmo para determinar qué riesgo de fuga tienen en la organización. Una vez realizando el análisis la empresa tiene dos opciones: tratar a los perfiles señalados como “traidores” y dejar de promocionarles, excluirles de la cadena de toma de decisión y de esta forma animarlos a que si se van a ir, lo hagan lo antes posible. O bien, establecer una estrategia de retención y motivación que contrarreste su deseo de abandonar la compañía. Misma herramienta, distinto “para qué”.

La recientemente aprobada Ley de IA por la Unión Europea, calificaba como aplicaciones prohibidas todas aquellas que atenten contra los derechos de la ciudadanía, como los sistemas de categorización biométrica, el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

Sin embargo, esa misma Ley establecía una serie de exenciones en el caso de las fuerzas de seguridad. Por ejemplo, en este ámbito la identificación queda prohibida a priori, salvo en situaciones muy concretas y bien definidas. Los sistemas de identificación biométrica "en tiempo real" solo se podrán emplear si su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa (todos hemos pasado alguna vez por los sistemas de identificación biométrica de un aeropuerto, el Adolfo Suárez de Madrid, por ejemplo). También se incluye la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista y siempre, con autorización judicial al estar vinculados a delitos penales.

Y mientras se aprueba esta normativa, surge una última novedad: la IA empática. La definen como diseñada para comprender, interpretar y responder a las emociones humanas. Para ello, profundiza en los matices de la expresión para interpretar el estado emocional analizando señales verbales, expresiones faciales y señales fisiológicas. En este punto, les propongo tres temas de reflexión.

El primero es si en el entrenamiento de esta IA se habrá tenido en cuenta la diversidad cultural que caracteriza a la humanidad y que por ejemplo, lleva a que algunos pueblos siempre sonrían lo que no significa que estén alegres. O que otros regateen constantemente en una negociación, lo que no implica que estén en desacuerdo.

Noticias relacionadas

El segundo es que quizá el término “empatía” aplicado a un algoritmo no sea el más adecuado. La consulta a lingüistas, filósofos y humanistas en general facilitaría la definición de toda esta nueva terminología sin llevar a la confusión.

El tercero es si antes de avanzar en la empatía de la IA, no deberíamos perfeccionar la empatía humana. Quizás así, a nadie se le ocurriría utilizar la IA predictiva en un proyecto como Lavanda que atenta directamente contra el más importante de los derechos humanos: la vida.