Opinión | ASUNTOS PROPIOS

Ricardo Baeza-Yates, experto en IA responsable: "Si nos extinguimos será por nuestra estupidez"

Ricardo Baeza-Yates.

Ricardo Baeza-Yates.

Estos últimos meses los cocineros de la inteligencia artificial (IA) firman manifiestos pidiendo frenar la cocción a riesgo de que nos mate a todos. ¿Chocante, no? El chileno Ricardo Baeza-Yates, investigador del Institute for Experiential AI de la Northeastern University, en Silicon Valley, y uno de los tres miembros del Consejo Asesor de IA del Gobierno de España que dimitieron en marzo por el acuerdo de colaboración con Abu Dabi para crear un centro de inteligencia artificial en Granada –"no quería legitimar algo que nunca se discutió"–, despeja dudas.  

¿No firma manifiestos?

Este último, no. No creo que la IA nos vaya a destruir.

Sam Altman, mente empresarial de OpenAI, y otros muchos sí.

Pienso en varias razones. Una es que sea una maniobra de distracción, incluso Geoffrey Hinton, pionero del 'deep learning' (aprendizaje profundo) dejó Google el mes pasado para advertir sobre estos peligros. Si ponen sobre la mesa riesgos futuros, no prestamos atención a lo que está pasando ahora, que es muy grave, y pueden seguir haciendo de las suyas. Y Altman pide regulación, seguramente porque tienen ya ventaja en el tema, pero no creo que realmente la quieran.

"Si ponen sobre la mesa riesgos futuros, no prestamos atención a lo que está pasando, que es grave"

¿Usted, qué dice?

Si nos extinguimos, no será por la IA sino por la estupidez humana. Una cosa es que un 'chatbot' te diga que te va a exterminar y otra, que tenga la posibilidad de accionar a la humanidad para que eso ocurra. Todo esto plantea una pregunta filosófica: ¿pueden hacer algo mejor que nosotros mismos? 

¿Pueden?

Si aprenden de nosotros, la respuesta es 'no'. En el ajedrez, donde la máquina supera al humano, el dominio del problema es cerrado y las reglas, conocidas. Pero no podemos describir con datos el contexto completo de cualquier problema.

Entonces, ¿qué le alarma exactamente?

Contestar a esta pregunta es parte del problema. Todo está interconectado.

"Me preocupa el uso indiscriminado de la IA donde el objetivo principal sea el dinero y no el impacto social"

Disculpe.

Me preocupa el uso indiscriminado de la IA donde el objetivo principal sea el dinero y no el impacto social. Existe una base de datos que registra más de 2.000 ejemplos de mal uso que afecta a millones de personas.

2.000 y estamos en los albores.

Es como una bomba de racimo. Por otra parte, se está configurando una concepción del ser humano que procede de una distribución de probabilidades matemáticas. Esto tiene repercusión en becas, préstamos, seguros y la aplicación de la justicia, entre otros problemas.

"Homogeneizamos contenido, formas de comunicarnos, valores. Estamos perdiendo conocimiento"

Se construye un hombre/mujer promedio.

Y pensar que somos un 'promedio' es un problema. Normalizamos a las personas en el sesgo de exposición. Wikipedia está disponible en 300 idiomas, cuando hay 7.000 que están vivos. No se toman en cuenta los menos comunes. Homogeneizamos contenido, formas de comunicarnos, valores. Estamos perdiendo conocimiento. Sin contar que el 40% de la población no están conectados a internet. También me preocupa mucho que puedan aumentar los problemas de salud mental.

"Me preocupa la salud mental. Hay gente que habla con sus seres queridos muertos"

¿En qué sentido?

El uso de los 'chatbots' como si fueran personas. En China y EEUU hay gente que habla con sus seres queridos muertos. [Un 'deadbot'] es solo un programa que entiende lo que dices y, usando probabilidades de contextos que encuentran en la web y en las comunicaciones previas con sus seres queridos, contestan como loros, pero las personas empiezan a creer que son humanos.

Pues ya me dirá... No moriremos pero nos desdibujaremos.

Es crucial una regulación estricta. Al contrario de lo que algunos dicen, las buenas regulaciones generan más innovación. Hay que marcar líneas rojas. La ACM –la asociación de informáticos, investigadores y profesionales más grande del mundo– publicó en 2022 los nueve principios de la IA responsable. Yo empujé uno – 'legitimidad y competencia'– que pide demostrar que el beneficio siempre sea superior al daño, y certificar que se tiene competencia administrativa y en el dominio del problema.

"Mi utopía sería un mundo donde la gente se desarrollara en lo que le gustara y las máquinas hicieran el resto"

¿Qué hay de la destrucción de empleo masiva?

No me preocuparía si todo el mundo recibiera un salario universal. Mi utopía sería un mundo donde la gente se desarrollara en lo que le gustara y las máquinas hicieran el resto.

¿Y si todo sale mal? ¿Y si la estupidez gana la partida?

No sería antes de 20 o 30 años. Pero creo, como Alan Kay, que la mejor manera de predecir el futuro es inventarlo. Con educación, conciencia, manejo de los sesgos y una perspectiva científica y no (casi) religiosa de la IA.