INTELIGENCIA ARTIFICIAL

El español en Corea que 'copia' el cerebro para mejorar la inteligencia artificial

Miguel Sánchez-Valpuesta trabaja en el Instituto Coreano de Investigación del Cerebro (KBRI)

Sus estudios sobre el procesamiento del sonido podrían mejorar la adaptación, eficiencia y rapidez de las inteligencias artificiales

Miguel Sánchez-Valpuesta es un joven español que reconstruye la forma en que escucha nuestro cerebro para formar inteligencias artificiales.

Miguel Sánchez-Valpuesta es un joven español que reconstruye la forma en que escucha nuestro cerebro para formar inteligencias artificiales. / EPE

Alberto Muñoz

Alberto Muñoz

De repente... ¡chas! Un sonido y tu cerebro se pone a funcionar: identifica un chasquido, cerca, detrás de la cabeza, posiblemente unos dedos chocando entre sí. Lo analiza todo prácticamente al instante, sin tener que activar bits, unos y ceros ni nada que se le parezca. ¿Cómo? Eso es lo que está estudiando Miguel Sánchez-Valpuesta, un joven español de 33 años que trabaja en el Instituto Coreano de Investigación del Cerebro (KBRI) con el objetivo de aplicar los procesos cerebrales hacia una mejora de la arquitectura de la inteligencia artificial (IA) y hacerla más rápida, eficiente y sostenible 'copiando', hasta donde se pueda, la innovación que esconde el ser humano dentro de su cabeza.

"El objetivo no es copiar tal cual la naturaleza, sino aprender de algo que ya es bello e intentar desarrollar cosas nuevas. En general sabemos poco de cómo funciona nuestro cerebro, ni siquiera cómo pensamos, pero es fascinante intentar descubrirlo. ¿Cómo, únicamente con la vibración de dos membranas en nuestros oídos, podemos ubicar dónde se encuentra en tres dimensiones algo que no estamos viendo o tocando? ¿Cómo diferenciamos distintas voces que hablan al mismo tiempo? A través de cálculos y predicciones que se producen de forma instantánea en nuestra cabeza y que son fruto de un procesamiento infinitamente más avanzado que el de los ordenadores actuales", explica el joven barcelonés a EL PERIÓDICO DE ESPAÑA desde la ciudad surcoreana de Daegu, donde lleva dos años trabajando.

El desafío para los que, como él, pretenden descubrir los secretos del cerebro, es precisamente entender cómo se articulan procedimientos desarrollados durante millones de años de evolución y cómo pueden aplicarse a la mejora de la tecnología actual.

Durante los próximos años, explica, irán apareciendo varios modelos de inteligencia artificial, desde los que apostarán por un sistema de computación tradicional hasta los que aspirarán a copiar el modelo a través de la llamada computación neuromórfica.

Miguel, que es uno de los expertos internacionales del Instituto Hermes y tiene un máster en biomedicina por la Universidad de Barcelona, hizo un doctorado durante seis años en Japón para estudiar los mecanismos y circuitos neuronales del aprendizaje lingüístico. De allí dio el salto a Corea, donde ese estudio del modo en el que interactúan los circuitos auditivos con el cerebro motor puede llegar a mejorar una inteligencia artificial que se ha destapado en 2022 como uno de los avances tecnológicos que marcarán la próxima década.

"Igual que vemos con el cerebro, pues la imagen que nos presenta no es la que reciben nuestros ojos, también escuchamos con él. El cerebro 'se inventa' y 'rellena', por así decirlo, mucho de lo que percibimos en base a predicciones y a la experiencia previa, y mantiene continuamente una representación del mundo externo que se 'actualiza' selectivamente mediante la información sensorial. Por eso también luego hay patologías de sonidos fantasma que el oído no está percibiendo pero que sí que están en nuestra cabeza. Ese tipo de conocimientos nos permiten entender cómo es el viaje del sonido por nuestras neuronas, y, por tanto, un poco más de cómo es ese procesamiento", explica Miguel.

El cerebro humano, sin embargo, no se limita a 'rellenar', sino que tiene una capacidad de adaptación extraordinaria cuando se trata del sonido. Por ejemplo, si recibimos un sonido a 60 decibelios en vez de a 30 suena un poco más fuerte en nuestra cabeza, pero, como explica el joven barcelonés, en realidad debería sonar 1.000 veces más fuerte. "Lo mismo sucede con nuestra propia voz o cuando hacemos ejercicio. Tú no escuchas tan fuertes los sonidos que generas porque tu cerebro los amortigua, es un mecanismo de supervivencia involuntario", apunta.

Si se consiguieran sintetizar esos procesos podría mejorarse, por ejemplo, la capacidad de adaptación de los vehículos autónomos a nuevas situaciones y estímulos inesperados. Es solo un ejemplo, porque ya han mejorado, pero antes un coche podía estar preparado para identificar un niño, un adulto o un perro y no atropellarlo, pero, ¿qué pasaba si se cruzaba un jabalí o un patinete? La IA debía ser capaz de procesar ese nuevo elemento para el que no estaba preparada y juzgar su relevancia de forma instantánea, sin tiempo para el procesamiento tradicional.

"Hasta ahora la inteligencia artificial funciona, por así decirlo, con clasificadores. Para A, B o C da respuestas más o menos estandarizadas, y eso era lo que pensábamos que pasaba con el cerebro, pero no es cierto, la mayoría de lo que hace no se basa en estímulo y respuesta. El 80% de la actividad cerebral, por ejemplo, consiste en mantener una representación interna de lo que ocurre a nuestro alrededor", apunta.

La sostenibilidad de las IA está en el cerebro

Sin embargo, aunque se consiguiera descubrir la forma de emular todo eso a través de un ordenador convencional sería prácticamente imposible y poco práctico. "Incluso los súper ordenadores hacen operaciones algorítmicas paso a paso, lo que retrasa los procesos y derrocha una enorme cantidad de energía. Los ordenadores cuánticos, en cambio, no hacen operaciones algorítmicas, y nuestro cerebro tampoco, aunque tienen otras limitaciones a día de hoy", explica el ingeniero.

De esta forma, dice, ahora mismo la computación se realiza "pasito a pasito", es decir, "que incluso cuando simulamos circuitos neuronales lo hacemos como si fuera un software en una CPU siguiendo reglas algorítmicas que son completamente ajenas al funcionamiento del cerebro". En ese punto es en el que entra la computación neuromórfica, un campo que aspira a replicar, tanto en chips como en procesos, la forma en que se articula el pensamiento humano.

Ahora mismo, solo en Corea del Sur, donde trabaja Miguel, y en Taiwán son capaces de fabricar los chips más avanzados en este campo, con lo que eso implica para la carrera por el desarrollo tecnológico entre América, Europa y Asia.

Además, se calcula que a día de hoy un 3% de toda la electricidad utilizada en el mundo se consume en los centros de datos, y que, en 2030, este porcentaje podría llegar hasta el 13%. Optimizar los modelos de computación, como ha hecho el cerebro durante millones de años de evolución, haría de la inteligencia artificial una tecnología mucho más sostenible.