Un tribunal de apelaciones de Estados Unidos confirmó un fallo a pesar de descubrir que el abogado de una de las partes había utilizado inteligencia artificial para generar jurisprudencia falsa, un hecho que derivó en una multa para el letrado.
Un caso judicial en San Diego, Estados Unidos, puso en evidencia los riesgos del uso de herramientas de inteligencia artificial en el ámbito legal. Durante una disputa por la custodia de una mascota, se descubrió que los casos legales citados por uno de los abogados eran ficticios y habían sido generados por IA.
El juez había fallado a favor de la mujer, pero el hombre apeló la decisión. En la apelación, el Tribunal del 4º Distrito, División 1, determinó que las citas en las que se basaba parte del fallo eran irrelevantes o inventadas. A pesar de este hallazgo, el tribunal se negó a revocar la sentencia original, argumentando que los abogados debieron verificar la información y que el juez podría haber llegado a la misma conclusión sin esos casos. Sin embargo, la abogada que utilizó la IA fue sancionada con una multa de 5.000 dólares.
Este incidente no es aislado. Recientemente, la Corte Suprema de Colombia sancionó a un abogado por incluir citas jurisprudenciales inexistentes generadas por IA. En Nueva York, dos abogados fueron multados en 2023 por usar ChatGPT para una investigación legal y presentar un caso que no existía. Asimismo, Michael Cohen, exabogado de Donald Trump, admitió haber presentado fallos ficticios creados por IA.
Según una encuesta de la Universidad Northwestern, el 60% de los jueces federales consultados utiliza al menos una herramienta de IA en su trabajo, lo que refleja la creciente adopción de esta tecnología en el sistema judicial.
