Opinión | SALUD

Inteligencia artificial en la salud

Sin transparencia, certezas o mecanismos de control independiente, no hay garantía de que los algoritmos cumplan con lo que prometen sus programadores: ser justos

La Inteligencia Artificial (IA) podría conducir a la humanidad a situaciones extrañas e inesperadas, según el CEO de OpenAI.

La Inteligencia Artificial (IA) podría conducir a la humanidad a situaciones extrañas e inesperadas, según el CEO de OpenAI. / Crédito: Stefan Keller en Pixabay.

Un día cualquiera, de un mes cualquiera, en un despacho cualquiera, en un gobierno cualquiera, en un país cualquiera, alguien decide que los trasplantes de hígado ya no los asignan los médicos, sino los algoritmos. Su intención es reducir el número de muertes que se producen mientras las personas esperan que haya un órgano disponible. Lo consigue. Las cifras se reducen notablemente. Hasta entonces, la decisión ha sido prácticamente local, basada en el criterio de la jerarquía sanitaria correspondiente. Se viene adjudicando prácticamente por proximidad al lugar donde sucede aquello que tiene que suceder para que se dé esta triste ecuación. A partir de ese día, un algoritmo conectará donantes y receptores a lo largo de todo el país. Lo llamarán National Liver Offering Scheme. Promete equidad y eficiencia, distribuyendo hígados a través de una puntuación, el Transplant Benefit Score. A esta decisión no se le da publicidad.

Sarah esperó más de dos años la llamada. El Financial Times cuenta en detalle su periplo. Cuando casi tenía 30 años y ya pasada la pandemia, se empezó a encontrar mal. Los especialistas de su hospital en Plymouth calcularon que le quedaban dos años de hígado y recomendaron un trasplante urgente. Sarah fue puesta en la lista de espera nacional. El Servicio Nacional de Salud le dijo que el tiempo medio era de 68 días, que pasaron mucho más rápido de lo que esperaba. Y pasaron sin que nadie llamara. ¿Cómo podían dar una estimación tan inexacta a alguien que tiene los días contados? ¿Era aquello habitual? Tirando de aquel hilo, aprendió que las asignaciones no las hacían ya los médicos, sino unos programas informáticos. No tenía nada particularmente en contra de los programas, aunque podría haber sido informada de su existencia. La siguiente pregunta, sin embargo, era tan obvia como inmediata: ¿y cómo funciona ese programa? Eso ya sería más complicado de responder. Lo que sí supieron es que no se podía apelar la decisión de aquel sistema automático. Se debía dar por hecho que era justa y perfecta. 

Este algoritmo es uno de muchos que se usan sobre las personas en los entornos relacionados con la salud. Optun es el nombre de uno de ellos, el que resultó priorizar a los pacientes blancos sobre los negros en Estados Unidos. Su función era predecir si requerirían más atención médica. Aunque no fue diseñado con intenciones racistas y no consideraba la etnia como un factor, utilizaba una estimación de futuros costes sanitarios como criterio para identificar a aquellos pacientes que necesitarían mayor apoyo médico. El problema era que los datos estaban sesgados. Las desigualdades estructurales hacen que los pacientes negros generasen costes más bajos que los blancos, afectando así su representatividad en el modelo. En consecuencia, el algoritmo asignaba una puntuación inadecuada, perjudicando a los que uno ya se puede imaginar. Detrás de las ambiciosas promesas de eficiencia tecnológica, a menudo se esconde una realidad más compleja y, en ocasiones, más despiadada.

En ausencia de publicidad, y por ende, sin transparencia, certezas o mecanismos de control independiente, no hay garantía de que los algoritmos cumplan con lo que prometen sus programadores: ser justos. La incertidumbre de Sarah y su familia se incrementaba cada día sin recibir noticias. Mientras, su salud seguía deteriorándose. Se preguntaban cómo enfrentar tal angustia sin saber en qué se basaba su lugar en la lista de espera. En su afán por encontrar respuestas, chocaron contra un muro de burocracia y secretismo. Por fortuna, también encontraron una web creada por un profesor de la Universidad de Edimburgo que explicaba el funcionamiento del algoritmo. Este sitio permitía, ingresando datos personales, estimar la proximidad a un trasplante. Según este, Sarah estaba muy lejos.

La implementación del algoritmo había reducido las muertes en la lista de espera. No obstante, un análisis más detallado de los datos reveló que, aunque beneficiaba considerablemente a los pacientes mayores, no ocurría lo mismo con los más jóvenes. Los de la edad de Sarah, entre 26 y 39 años, enfrentaban ahora esperas mucho más prolongadas, aumentando la brecha de 40 a 156 días en comparación con pacientes mayores de 60 años. Tras tres años de uso, se detectó que el algoritmo discriminaba sistemáticamente a pacientes con cáncer. ¿Cuántos habrían fallecido en ese lapso debido a un error automatizado? ¿O deberíamos hablar de una falta de rendición de cuentas y control por parte de sus administradores? ¿Quién determina qué colectivo merece mayor beneficio? ¿Y cómo se valida esa decisión?

Después de una larga batalla, un médico asignó finalmente a Sarah un hígado que no había sido seleccionado por la máquina. La razón era que, al proceder de un donante mayor de 70 años, no cumplía con los criterios del sistema. No era lo suficientemente bueno, según los parámetros establecidos. Para ella, sin embargo, representaba la única oportunidad de continuar con vida en un mundo cada vez más intermediado por máquinas.