DestacadaTecnología

Una abogada está bajo investigación por presentar casos falsos que fueron creados por chatbot de IA

La mujer debe enfrentar una investigación por usar ChatGPT en medio de un caso de custodia infantil

Una abogada está en el centro de cientos de críticas debido a que se supo que usaba un chatbot de Inteligencia Artificial (IA) para crear casos falsos durante una investigación jurídica.

Se trata de la abogada de Vancouver, Chong Ke, quien ahora debe enfrentar una investigación por usar ChatGPT para desarrollar presentaciones legales en la corte suprema de Columbia Británica, en medio de un caso de custodia infantil.

De acuerdo a los documentos judiciales, la mujer representaba a un padre que buscaba llevar a sus hijos al extranjero, pero se encontraba en medio de la separación con la mamá de los niños.

Ke le pidió a ChatGPT ejemplos de jurisprudencia para poder aplicarlos a la situación de su cliente. La IA le dio tres resultados y dos de ellos los presentó en el tribunal.

Los representantes legales de la madre de los menores no encontraron ningún registro de los casos, pese a las múltiples solicitudes.

Cuando ambas partes tuvieron el enfrentamiento, la abogada se retractó y aseguró que no pensó que los casos fueran falsos.

“No tenía idea de que estos dos casos pudieran ser erróneos. Después de que mi colega señaló el hecho de que no se podían localizar, investigué por mi cuenta y tampoco pude detectar los problemas”, escribió Ke en un correo electrónico al tribunal. «No tenía intención de engañar al abogado contrario ni al tribunal y pedir disculpas sinceras por el error que cometí».

Aunque los chatbots han ayudado a muchas personas por su gran facilidad de encontrar datos, cabe mencionar que estos programas no siempre aciertan y, por el contrario, son propensos a las equivocaciones.

Los abogados de la contraparte se mostraron indignados con lo sucedido

Los representantes de la madre calificaron la conducta de Ke de “reprensible y merecedora de reprimenda”, argumentando que invirtieron “tiempo y gastos considerables” para averiguar si los casos que ella citó eran reales.

“Citar casos falsos en expedientes judiciales y otros materiales entregados al tribunal es un abuso de proceso y equivale a hacer una declaración falsa ante el tribunal”, escribió el juez David Masuhara. «Si no se controla, puede conducir a un error judicial».

Masuhara aseguró que las acciones de Ke ocasionaron «publicidad negativa significativa»; además, calificó a la abogada como «ingenua acerca de los riesgos de usar ChatGPT». Sin embargo, resaltó que tomó medidas para corregir sus errores.

“No encuentro que ella tuviera la intención de engañar o desorientar. Acepto la sinceridad de las disculpas de la señora Ke ante el abogado y el tribunal. Su arrepentimiento fue claramente evidente durante su comparecencia y sus presentaciones orales ante el tribunal”.

A pesar de que el juez Masuhara resaltó que no encontró maldad en las acciones de Ke, la sociedad jurídica de Columbia Británica está investigando la conducta de Ke.

Fuente: playgroundweb.com