INTELIGENCIA ARTIFICIAL
Pierde el juicio por la IA: recurre a ChatGPT para preparar un juicio y ahora se enfrenta a posibles sanciones
La IA se inventó toda una serie de precedentes legales al redactar el escrito que le pidió el abogado

Pidió ayuda a ChatGPT para redactar un escrito y la IA se inventó toda una serie de precedentes legales falsos que le han puesto en un aprieto.
Un abogado estadounidense se enfrenta a posibles sanciones después de haber usado el popular ChatGPT para redactar un escrito y descubrirse que la aplicación de inteligencia artificial (IA) se había inventado toda una serie de supuestos precedentes legales.
Según publicó este sábado el diario The New York Times, el letrado en problemas es Steven Schwartz, abogado de un caso que se dirime en un tribunal de Nueva York, una demanda contra la aerolínea Avianca presentada por un pasajero que asegura que sufrió una lesión al ser golpeado con un carrito de servicio durante un vuelo.
Schwartz representa al demandante y utilizó ChatGPT para elaborar un escrito en el que se oponía a una solicitud de la defensa para que el caso fuese desestimado.
En el documento de diez páginas, el abogado citaba varias decisiones judiciales para apoyar sus tesis, pero no tardó en descubrirse que el conocido chatbot de la compañía OpenAI se las había inventado.
"Una situación inédita"
"La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes", escribió el juez Kevin Castel este mes.
Este viernes, Castel emitió una orden convocando a una audiencia el próximo 8 de junio en la que Schwartz deberá tratar de explicar por qué no debería ser sancionado después de haber tratado de usar supuestos precedentes totalmente falsos.
Lo hizo un día después de que el propio abogado presentase una declaración jurada en la que admitió haber usado ChatGPT para preparar el escrito y reconoció que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaba eran reales.
Schwartz se justificó asegurando que nunca antes había usado una herramienta de este tipo y que, por tanto, "no era consciente de la posibilidad de que su contenido pudiese ser falso".
El abogado subrayó que no tenía ninguna intención de engañar al tribunal y exculpó totalmente a otro abogado del bufete que se expone también a posibles sanciones.
El documento, visto por EFE, se cierra con una disculpa en la que Schwartz lamenta profundamente haber usado inteligencia artificial para apoyar su investigación y promete no hacerlo nunca más sin verificar totalmente su autenticidad.
- Sin rastro desde el 5 de noviembre de 2013 La familia de Cristina, desaparecida hace diez años, descubre que alguien cobra una subvención en su nombre
- DESDE EL 1 DE OCTUBRE La tarifa regulada de gas baja para 2,8 millones de hogares, pero sube para las comunidades de vecinos
- COXABENGOA El hombre que intentó disputarle la presidencia del Real Madrid a Florentino Pérez
- SENTENCIA DE LA AUDIENCIA Condenado a 13 años de cárcel por violar al hijo discapacitado de su pareja en Vinaròs (Castellón)
- Fútbol Sergio Ramos es el Cristo Redentor del Barça
- El Gobierno palestino pide a España la salida de las empresas que construyen el tranvía en Jerusalén
- TECNOLOGÍA Estos son los pasos a seguir si quieres que se borren al cookies de forma automática en Google Chrome
- TELECINCO Carlota Corredera se pronuncia sobre el batacazo de Jorge Javier Vázquez con 'Cuentos chinos'
- ALERGIAS Este es el motivo por el que te pica la garganta cada vez que comes melón
- FAMOSOS Eva González desvela sus deseos hacia Cayetano Rivera