El abogado estadounidense Steven Schwartz tiene más de 30 años ejerciendo en su estudio de Nueva York. Y cuando llegó un caso nuevo a sus manos, decidió que podía aprovechar las bondades de ChatGPT, la herramienta de inteligencia artificial generativa que está de moda, y que estudiantes de todo el mundo están aprovechando para sus tareas.
En el caso de Schwartz, trabaja junto a un colega Peter LoDuca, en un bufete de abogados, al que llegó Roberto Mata: esta persona demandó a la aerolínea colombiana Avianca por haber sido lastimado a bordo de uno de sus aviones en 2019 por uno de los carritos de comida que los asistentes de abordo empujan por sus pasillos.
Como prueba para demostrar que tenía sentido que la demanda prosperara dentro del sistema judicial estadounidense y que no fuera descartada, el estudio de LoDuca y Schwartz presentó varios casos que sentaban jurisprudencia, un precedente que para la Justicia es clave a la hora de analizar un caso.
Varghese v. China South Airlines, Martinez v. Delta Airlines, Shaboon v. EgyptAir, Petersen v. Iran Air, Miller v. United Airlines, and Estate of Durden v. KLM Royal Dutch Airlines. Los datos se apilaban en el informe que presentaron los abogados.
Pero surgió un problema: el juez Kevin Castel, al intentar analizar la evidencia, se encontró con que no existía. Seis de los casos presentados eran falsos, según informa la BBC.
Te ayuda con datos inventados
¿Cómo podía ser eso posible?, le preguntó LoDuca a su compañero Schwartz. Este abogado le informó, entonces, que había usado ChatGPT para armar el caso y buscar jurisprudencia, y que nunca se le había ocurrido chequear la veracidad de la información.
El abogado, que tuvo que admitir que no estaba enterado que ChatGPT podía brindar información falsa (lo que en el rubro se conoce como “alucinación” de la inteligencia artificial) debió pedir disculpas a la corte, y deberán comparecer ante la Justicia el próximo 8 de junio para explicar por qué se trata de un error inocente y no de un intento de manipular las pruebas a su favor.
Lo que Schwartz debería haber tenido en cuenta es que uno de los mayores peligros al usar ChatGPT (incluso en tareas relativamente inocentes como un trabajo escolar) es que la herramienta es bastante propensa a inventar respuestas (entre otros problemas que tiene), una práctica conocida en el ámbito de la inteligencia artificial generativa como “alucinación”, y que no es excluyente de ChatGPT.
Estos chatbots intentan por todos los medios cumplir con el pedido de los usuarios, y por eso tienden a caer en la fabulación cuando no tienen información certera o verificada sobre un tema; tanto OpenAI (desarrolladora de ChatGPT) como Google (que salió a competir con Bard) están implementando mecanismos para evitar esto.

Similares
Mapas de Cartas de suelos suman datos de San Justo y de capacidad de agua disponible
Las bolsas de cereales y comercio del país se expidieron sobre la eliminación de las retenciones
Región Centro: jóvenes dirigentes agropecuarios elaboraron propuestas para fortalecer el sector