Uso indebido de la Inteligencia Artificial en la práctica legal


Case Nos: AC-2024-LON-003062 || CL-2024-000435

6 de junio de 2025

 

El Tribunal Superior del Reino Unido [King’s Bench Division – Divisional Court] se pronunció recientemente en dos casos vinculados al uso indebido de herramientas de inteligencia artificial generativa [como ChatGPT] por parte de profesionales del derecho. La sentencia desarrolla lineamientos sobre la responsabilidad de los abogados frente al uso de IA, reafirmando principios éticos esenciales para la correcta administración de justicia.

 

La sentencia analiza dos casos remitidos al tribunal bajo la denominada jurisdicción Hamid, activada cuando están en juego los deberes éticos de los abogados frente al tribunal.

  1. Caso Ayinde v. Haringey: una abogada presentó un escrito citando cinco sentencias inexistentes y tergiversando el contenido legal de una norma. Aunque negó haber usado IA, el tribunal concluyó que introdujo esa información sin verificar su existencia ni exactitud. El tribunal impuso una sanción económica de £2,000 a la abogada y al centro legal que la supervisaba, y ordenó la remisión del caso a los organismos disciplinarios.

 

  1. Caso Al-Haroun v. Qatar National Bank: el escrito de testigos incluía una cita legal completamente inventada, también atribuida al uso no supervisado de IA generativa por parte de un estudio jurídico. En este caso, el tribunal también resolvió que hubo una falta grave de diligencia profesional, aunque optó por no imponer sanciones económicas, considerando que los responsables reconocieron el error, se disculparon de inmediato y tomaron medidas correctivas.

 

En ambos casos, el tribunal consideró que se había afectado la integridad del proceso judicial y subrayó que los abogados siguen siendo personalmente responsables del contenido que presentan, incluso si fue generado por inteligencia artificial.

 

PRINCIPIOS RECTORES: DEBER DE VERIFICACIÓN Y RESPONSABILIDAD PERSONAL

El tribunal reafirmó que los abogados que utilizan IA tienen el deber indelegable de comprobar la veracidad de cualquier información jurídica antes de presentarla al tribunal. Este deber se mantiene, aunque el contenido provenga de terceros o de sistemas de IA generativa. El incumplimiento de este deber puede dar lugar a:

  • Amonestaciones públicas,
  • Sanciones por costas,
  • Remisión a los entes reguladores (Bar Standards Board o SRA),
  • Procedimientos por desacato o incluso investigaciones penales.

 

Este debate no es ajeno al Perú. En 2022, un juzgado civil en San Juan de Miraflores empleó ChatGPT como herramienta de apoyo en un fallo de pensión alimenticia (Exp. N.º 00052-2022).

La IA fue usada para proyectar ingresos y gastos antes de fijar un aporte del 20% a cargo del padre. Aunque el fallo no fue cuestionado y la IA solo se utilizó de forma auxiliar, el antecedente británico plantea una advertencia importante: ¿qué ocurre cuando no son los justiciables, sino los propios jueces quienes incorporan inteligencia artificial en sus decisiones, sin un marco claro de control, supervisión o rendición de cuentas?

 

Consulta aquí la Sentencia:

UK_Sentencia_IA_Case Nos AC-2024-LON-003062 and CL-2024-000435.pdf