Inteligencia Artificial
Abogados presentan en una corte una investigación jurÃdica... hecha con ChatGPT
Los abogados podrÃan ser sancionados debido al documento que incluyeron en una demanda contra una aerolÃnea, el cual hacÃa referencia a casos judiciales anteriores. Varios de ellos nunca sucedieron o implicaban a empresas que no existÃan.NUEVA YORK (AP) — Dos abogados manifestaron su arrepentimiento ante un furioso juez de una corte federal de Manhattan y culparon el jueves a ChatGPT por haberlos engañado de tal manera que incluyeron una investigación jurÃdica ficticia en un documento presentado ante la corte.
Los abogados Steven A. Schwartz y Peter LoDuca podrÃan ser sancionados debido al documento que incluyeron en una demanda contra una aerolÃnea, el cual hacÃa referencia a casos judiciales anteriores que Schwartz pensó eran verÃdicos, pero que en realidad fueron inventados por el chatbot con inteligencia artificial.
Schwartz explicó que utilizó el innovador programa para buscar precedentes jurÃdicos que apoyaran el caso de un cliente contra la aerolÃnea colombiana Avianca por una lesión sufrida durante un vuelo en 2019.
El chatbot, que ha fascinado al mundo con sus respuestas tipo ensayo a solicitudes de los usuarios, sugirió diversos casos sobre incidentes de aviación que Schwartz no habÃa logrado encontrar mediante los métodos habituales de búsqueda utilizados por su firma jurÃdica.
El problema fue que varios de esos casos nunca sucedieron o implicaban a aerolÃneas que no existÃan.
Schwartz manifestó al juez P. Kevin Castel que "actuó bajo la idea equivocada… de que este sitio web estaba obteniendo casos de alguna fuente a la que yo no tenÃa acceso".
Schwartz dijo que "falló miserablemente" en hacer la respectiva investigación de seguimiento para garantizar que las referencias fueran correctas.
"No entendÃa que ChatGPT podÃa inventar casos", agregó.
Microsoft ha invertido alrededor de mil millones de dólares en OpenAI, la compañÃa detrás de ChatGPT.
El éxito de ChatGPT, que muestra que la inteligencia artificial podrÃa cambiar la manera como actúan y aprenden los humanos, ha generado temores en algunos. Cientos de lÃderes industriales firmaron en mayo una carta en la que advierten que "reducir el riesgo de la extinción frente a la IA deberÃa ser una prioridad global a la par de otros riesgos a escala social, como las pandemias y la guerra nuclear".
El juez Castel parecÃa tanto desconcertado como molesto por el inusual incidente, y decepcionado de que los abogados no hubieran actuado rápidamente para corregir las falsas referencias jurÃdicas cuando sus contrapartes de Avianca y la corte les avisaron del problema por primera vez. Avianca expuso la falsa jurisprudencia en un documento presentado en marzo ante la corte.
El juez confrontó a Schwartz con un caso legal inventado por el programa informático. El asunto fue descrito inicialmente como un caso de muerte por negligencia que presentó una mujer contra una aerolÃnea, pero se fue transformando en una demanda legal sobre un hombre que perdió un vuelo a Nueva York e incurrió en gastos adicionales.
"¿Podemos concordar en que se trata de sandeces jurÃdicas?", preguntó Castel.
Schwartz dijo haber creÃdo equivocadamente que la confusa presentación habÃa resultado de los extractos obtenidos de distintas partes del caso.
Cuando Castel terminó con su interrogatorio, preguntó a Schwartz si tenÃa algo más que agregar.
"Quiero disculparme sinceramente", declaró Schwartz.
El abogado dijo haber sufrido personal y profesionalmente por esta metida de pata y que se sentÃa "avergonzado, humillado y extremadamente arrepentido".
Afirmó que él y el despacho donde trabajaba —Levidow, Levidow & Oberman— habÃan adoptado salvaguardas para garantizar que no volviera a suceder algo similar.
LoDuca, el otro abogado que trabajaba en el caso, dijo que confió en Schwartz y no revisó de manera adecuada lo que su compañero habÃa compilado.
Después de que el juez leyera en voz alta partes de uno de los casos mencionados para mostrar lo sencillo que era discernir que se trataba de incoherencias, LoDuca dijo: "Jamás pensé que se tratara de un caso falso".
LoDuca afirmó que el resultado "me apena sobremanera".
Ronald Minkoff, abogado del despacho jurÃdico, dijo al juez que la entrega del documento "se debió a un descuido, no a mala fe", y que no deberÃa derivar en sanciones.
Señaló que, históricamente, los abogados han tenido dificultades con la tecnologÃa, en particular con la tecnologÃa moderna, "y no se está poniendo más fácil".
"El señor Schwartz, que apenas realiza investigación federal, decidió utilizar esta nueva tecnologÃa. Pensó que estaba utilizando un motor de búsqueda ordinario", afirmó Minkoff. "Lo que estaba haciendo era jugar con munición real".
Daniel Shin, profesor adjunto y subdirector de investigación del Centro para TecnologÃa JurÃdica y Judicial de la Escuela de Derecho William & Mary, dijo que expuso el caso de Avianca durante una conferencia la semana pasada que atrajo a docenas de participantes en persona y en internet de cortes estatales y federales en Estados Unidos, incluida la corte federal de Manhattan.
Dijo que el tema causó conmoción y desconcierto durante la conferencia.
"Estamos hablando del Distrito Sur de Nueva York, el distrito federal que se ocupa de grandes casos, desde el 11 de septiembre de 2001 hasta grandes delitos financieros", dijo Shin. "Este fue el primer caso documentado de una posible falta de ética profesional de parte de un abogado que utilizó IA generativa".
Dijo que el caso mostró que los abogados podrÃan no comprender el funcionamiento de ChatGPT porque éste tiende a alucinar y hablar sobre cosas ficticias de tal manera que parecen reales sin serlo.
"Pone de relieve los peligros del uso de prometedoras tecnologÃas de IA sin que se tengan claros los riesgos", comentó Shin.
El juez dijo que fallará sobre las sanciones en una fecha posterior.