RIESGOS DE LA IA

El peligro de la "alucinación" de la Inteligencia Artificial: ¿falla ChatGPT?

Los expertos advierten del riesgo que supone confiar plenamente en una IA tan potente como ChatGPT cuando la información que alberga no es 100% correcta

"Es un peligro imprudente": Más de 1.000 personalidades piden parar la inteligencia artificial más avanzada.

"Es un peligro imprudente": Más de 1.000 personalidades piden parar la inteligencia artificial más avanzada.

A pocos días de la coronación del rey Carlos III el 6 de mayo, ChatGPT afirmó lo siguiente: "La ceremonia de coronación tuvo lugar en la Abadía de Westminster, en Londres, el 19 de mayo de 2023. La abadía ha sido el escenario de las coronaciones de los monarcas británicos desde el siglo XI, y es considerada uno de los lugares más sagrados y emblemáticos del país".

Esta información elaborada por el propio chatbot está escrita de forma correcta pero presenta un gran error; los datos son incorrectos. A eso se le conoce como una "alucinación" o un fallo de la Inteligencia Artificial, ya que la respuesta acertada es el 6 de mayo, momento en el que se celebró la coronación del rey Carlos III.

Por alguna razón, ChatGPT eligió una fecha incorrecta para responder la respuesta de un usuario y aunque se trate de un pequeño error, este fallo es uno de los más peligrosos que existen en referencia a esta tecnología.

Ya lo decía el cofundador de Apple, Steve Wozniak, en una entrevista en la BBC hace no mucho: "La IA es extremadamente inteligente y está abierta a los estafadores y hackers, los que quieren engañarte sobre quienes son". Además, señaló el peligro que suponía que una tecnología tan potente como esta tuviese fallos. En un futuro, cuando la IA tome protagonismo en nuestras vidas, puede convertirse en un grave problema.

"GPT-4 todavía tiene muchas limitaciones conocidas que estamos trabajando para abordar, como los prejuicios sociales, las alucinaciones y las indicaciones contradictorias", explicó OpenaAI durante su lanzamiento de la versión GPT-4 del chatbot, el pasado marzo.

No es la primera vez que se da esta "alucinación" de esta tecnología, hace unos días algunos periodistas de The New York Times quisieron poner a prueba al ChatGPT y consiguieron obtener varias respuestas donde el chatbot daba datos equivocados.

Hay que tener precaución a la hora de usar ChatGPT

A raíz de estos hechos, los expertos ya han advertido del uso de este sistema y de la importancia que está tomando con el tiempo. Ya se habla de la IA como una herramienta que podría llegar a influir en los gobiernos y en los sistemas económicos de estos. Por eso, estas "alucinaciones" no se deben pasar por alto, todo lo contrario, deben servir como aviso para aquellos que quieren hacer del ChatGTP un uso mayor.

Esta Inteligencia Artificial funciona analizando cantidades masivas de texto digital que hay en internet. A partir de ahí, esta tecnología conocida como modelo de lenguaje grande actúa como una versión muy potente de una herramienta de autocompletar utilizando los datos recogidos.

Si internet está lleno de datos erróneos, esta tecnología guarda la información falsa y la vierte en su sistema para después compartirla con los usuarios. Una herramienta muy útil en algunos casos, pero un verdadero peligro en otros.