Opinión | TECNOLOGÍA

Qué escandalo, la inteligencia artificial no es justa

No exijamos a las máquinas más de lo que somos capaces de asumir como humanos. ¿O sí?

Una tecnología robótica consigue que personas sanas perciban voces que no existen.

Una tecnología robótica consigue que personas sanas perciban voces que no existen. / Generador de imágenes de la IA de BING para T21/Prensa Ibérica, desarrollada con tecnología de DALL·E.

Al parecer los algoritmos tienen sesgos y se equivocan. Es uno de los riesgos de la inteligencia artificial que suelen destacar los expertos críticos, sugiriendo que no se puede dejar que las máquinas tomen decisiones porque los algoritmos no siempre son justos. Se suceden historias que evidencian ese riesgo y nos llevamos las manos a la cabeza al constatar que máquinas programadas por humanos discriminan y fallan como humanos, ¿cómo puede ser? Recuerda a la falsa sorpresa del capitán Renault en la mítica Casablanca cuando exclama: ¡Qué escandalo, qué escándalo, he descubierto que aquí se juega!

La inteligencia artificial ya no pertenece al campo de la ciencia ficción, forma parte de nuestro día a día en muchos ámbitos importantes de la vida como el trabajo, el consumo o la salud, a veces de manera evidente, otras de forma invisible. Casi siempre de manera cómoda y eficaz. Pero la IA es una disciplina científica y una herramienta que desarrollan los humanos, con conocimientos humanos, con razonamientos humanos y, sobre todo, con datos humanos. Los datos son el alimento principal de los algoritmos, la materia prima de un mecanismo relativamente simple que consiste en detectar patrones y convertirlos en predicciones.

Y sí, la inteligencia artificial puedes ser sexista, racista e injusta. Lo hemos visto en casos de reconocimiento facial, de traductores automáticos o de asignación de recursos. En su proceso de aprendizaje los algoritmos pueden incorporar sesgos o prejuicios discriminatorios, que pueden derivar en un rendimiento que perpetúe realidades de desigualdad o injustas. El matiz es importante; las repite, no las genera. Los sistemas de inteligencia artificial están diseñados por personas que tienen una determinada visión del mundo y una percepción de la realidad basada en sus propias experiencias, tabúes, manías y hasta supersticiones. El razonamiento humano, incluso el de los científicos del MIT, está lastrado por a prioris que lo distorsionan de manera inconsciente. La estereotipación, la apofenia o el de confirmación, son sólo algunos de los sesgos cognitivos que condicionan nuestra forma de pensar, de percibir la realidad y de actuar.

Hay que evitar que los sesgos humanos se filtren en el diseño y los criterios de evaluación de los modelos algoritmos, sobre todo en decisiones que nos afectan directamente y en asuntos delicados como la libertad, la salud o nuestra seguridad. Hay un reconocimiento general de la comunidad científica de que esto es importante y son numerosas las iniciativas para corregir este problema y evitar que los humanos “contagien” a las máquinas con sus prejuicios. Una solución obvia es contar con equipos de investigadores lo más diversos posibles. También generar y trabajar con bases de datos equilibradas y representativas. En el futuro, los modelos estarán entrenados para detectar ellos mismos los sesgos más evidentes.

Pero no nos llamemos a engaño falsamente, la justicia y la equidad son aspiraciones permanentes, nunca alcanzadas plenamente, de las sociedades desarrolladas. Requieren un compromiso y un esfuerzo continuo de los poderes públicos, los actores económicos y la sociedad en su conjunto. No exijamos a las máquinas más de lo que somos capaces de asumir como humanos. ¿O sí?