Inteligencia Artificial​ y Función Jurisdiccional: ¿Herramienta o riesgo para el juez?



Comparación entre los reglamentos del Reino Unido y Francia

 

El Desafío Estructural de la IA

En el caso “Manríquez Carrasco con Servicio de Salud de Chiloé”, la Corte Suprema chilena (Rol N° 11.120-2024) resolvió un interesante conflicto sobre competencia y cláusulas arbitrales.

La incorporación de la Inteligencia Artificial no es una innovación tecnológica más: constituye un desafío estructural para los sistemas de justicia contemporáneos.

El dilema crítico: ¿Puede la IA incorporarse sin comprometer la tutela jurisdiccional efectiva?

Modelo Francés

Charte d’utilisation de l’intelligence artificielle au sein de la juridiction administrative

La carta francesa se articula en torno a un principio cardinal: la preservación del juicio humano. La inteligencia artificial se concibe exclusivamente como una herramienta de apoyo para el juez, desprovista de toda capacidad decisoria autónoma.

Modelo Británico

Guidance for Judicial Office Holder

Por su parte, el reglamento británico no establece una prohibición expresa para la utilización de IA, pero califica al análisis y razonamiento legal; y a la investigación como tareas no recomendadas para la inteligencia artificial. Recomienda, por el contrario, emplearla para resumir textos extensos, para dar recomendaciones de temas a tocar en presentaciones y para tareas administrativas.

De igual manera, califica a la Inteligencia Artificial como una “herramienta secundaria potencialmente útil”, siempre que su empleo quede supeditado al estricto cumplimiento de las directrices de seguridad contenidas en el mismo documento.

En coherencia con este enfoque, se limita la utilización de la IA y se acota la aplicación del reglamento a supuestos de uso con riesgo limitado, calificados así según la taxonomía del Reglamento Europeo de Inteligencia Artificial (IA Act). Más específicamente, se incluyen supuestos de uso como: la anonimización automatizada de sentencias, la optimización de la comunicación interna y el apoyo en tareas administrativas generales. Se excluye total y expresamente a los sistemas calificados como de alto riesgo.

Eje central: El juez humano

La decisión no puede automatizarse

Como se ha evidenciado, existe consenso en concebir a la IA exclusivamente como una herramienta de apoyo, manteniendo la decisión final en total control del juez natural.

Garantía del juez natural:

Link sentencia:🔗https://www.corteconstitucional.gov.co/relatoria/2024/t-323-24.htm

  • La Corte Colombiana indica que podría generarse una vulneración al debido proceso en su garantía de juez natural si el caso es decidido, no por un juez, sino por una IA.
  • No se trata únicamente de la garantía del juez natural, sino que lo denomina como el “derecho al juez humano previamente establecido”.
  • Conclusión: El juez natural debe ser humano y no una máquina. Solo el juez puede interpretar los hechos las pruebas y motivar la decisión.

Responsabilidad del juez

Reglamento británico:

El reglamento establece que cada magistrado responde íntegramente por el contenido, la forma y la ejecución de su trabajo, sin importar que haya optado o no por emplear herramientas de inteligencia artificial.

En tal sentido, se subraya que los documentos y la evidencia subyacente en cada caso deben ser siempre objeto de verificación humana, siendo un deber del juez la lectura directa de los documentos originales que ingresan a su despacho.

En particular, se dispone que el acceso a herramientas de IA debe realizarse exclusivamente a través de dispositivos de trabajo, desaconsejándose el uso de dispositivos personales para estos fines. Esta directriz marca una diferencia relevante respecto del marco francés, que consagra principios similares, pero sin esta especificidad operativa.

Caso relacionado (Reino Unido):

Un juez del Tribunal de Apelación del Reino Unido, Lord Justice Birss, utilizó ChatGPT para obtener un resumen de un área del derecho

  • Lord Justice Birss, juez del Tribunal de Apelación del Reino Unido, utilizó ChatGPT para redactar parte de un fallo y elogió su utilidad para resumir información legal. Afirmó que asumió plena responsabilidad por su uso de la IA y que simplemente realizó una tarea que él ya tenía prevista.
  • Primera vez que un juez británico ha utilizado un chatbot de IA para redactar parte de una sentencia.

Reglamento francés:

“Desde el momento en que el juez decide retomar, total o parcialmente, el material generado, este se convierte en propio para efectos legales y profesionales” (traducción directa).

La intransferibilidad de la responsabilidad judicial es clara en ambas jurisdicciones, ya que el juez responde exclusivamente por sus decisiones. Se consagra la imposibilidad de deslinde de responsabilidad: Ante un error u omisión, el magistrado no puede eximirse alegando el uso de la IA, del mismo modo que no podría hacerlo invocando un error en una cita bibliográfica o en un documento elaborado previamente por un colega. En este punto, el ordenamiento francés otorga a la IA un tratamiento análogo al de las fuentes tradicionales de información, como internet, libros o artículos académicos. Es por ello que mencionan al igual que el reglamento británico la importancia de la verificación humana, pero no precisamente en el análisis documental como el reglamento británico, si no en la información provista por sistemas de inteligencia artificial.

Caso relacionado (Países Bajos):

Agosto 2024: Un juez usa Chat GPT para resolver una controversia entre propietarios y paneles solares

  • En un litigio entre dos propietarios de viviendas sobre la eficiencia de los paneles solares, el juez usó ChatGPT como fuente de información: para estimar la vida útil y el precio de la electricidad.
  • Expertos en IA, como Henk van Ess, criticaron el uso del chatbot, considerando que es inaceptable basar decisiones judiciales en información de una IA. Sin embargo, el tribunal aclaró que ChatGPT solo fue una de las fuentes y no influyó decisivamente en la sentencia. ¿La IA sustituirá a la prueba científica?

Privacidad y confidencialidad

Reglamento francés:

La normativa francesa adopta una posición definitiva: cuando no pueda garantizarse la seguridad técnica de las plataformas de terceros, debe renunciarse al uso de la inteligencia artificial. El principio rector es inequívoco, solo se permite el suministro de información pública a sistemas externos.

Los documentos que contienen datos confidenciales o de carácter personal no pueden ser divulgados por la jurisdicción administrativa, por tanto, se establece la  prohibición de cargar en sistemas de IA cualquier memoria, pieza de expedientes contenciosos, nota de ponente, proyecto de decisiones jurisdiccionales o textos normativos presentados ante las secciones administrativas.

Reglamento británico:

“Cualquier información ingresada en un chatbot público debe considerarse como publicada para todo el mundo” (Traducción directa).

Para mitigar estos riesgos, la guía de octubre de 2025 introduce protocolos operativos específicos, entre ellos: la recomendación de desactivar el historial de chat (sin que ello garantice privacidad absoluta) y la restricción de permisos en dispositivos móviles.

El más notable, es la creación de un protocolo ante filtraciones de datos. En caso de que un magistrado o miembro del personal introduzca información confidencial de manera involuntaria, el hecho debe reportarse formalmente como un “data incident, para así activar los mecanismos de seguridad de la corte y permitiendo evaluar el impacto en el proceso judicial.

El nuevo riesgo: sesgos invisibles

Reglamento francés:

En esta sección, el reglamento hace un análisis del impacto potencial de la IA en la imparcialidad e independencia del juez, en relación con su Código de Justicia Administrativa (arts. L. 131-2 y L. 231-1-1) y la Carta Deontológica.

El grave riesgo de la Inteligencia Artificial de influir en el razonamiento jurídico del juez plantea un nuevo enfoque al principio de imparcialidad. En la actualidad, no es solo elemental que el juez determine su decisión libre de presiones externas humanas, si no también de influencias cognitivas de la Inteligencia Artificial.

Por ello, el reglamento impone un deber de vigilancia crítica frente a cuatro sesgos principales: anclaje, confirmación, aprendizaje y discriminación.

  • Sesgo de anclaje: Dependencia excesiva de la primera información generada por la IA
  • Sesgo de confirmación: Tendencia a buscar resultados que validen perjuicios existentes del usuario
  • Sesgo de discriminación: Reproducción de patrones históricos de exclusión
  • Sesgo de aprendizaje: Influencia del entrenamiento algorítmico

Reglamento británico:

La normativa inglesa reconoce expresamente que la inteligencia artificial genera respuestas a partir de los datos con los que ha sido entrenada, por lo que su producción está inevitablemente expuesta a errores y sesgos. En particular, advierte que la concepción del Derecho reflejada por estos sistemas suele estar fuertemente influenciada por una perspectiva de Derecho Estadounidense y por enfoques jurídicos históricos, lo que incrementa el riesgo de interpretaciones erróneas o no adaptadas al sistema británico.

Aportes adicionales

Litigantes sin asesoría:

El reglamento británico manifiesta que los chatbots suelen ser la única fuente de asesoramiento de estos litigantes​. Por tanto, plantea dos directrices fundamentales.

  • Responsabilidad: El litigante responde íntegramente por el contenido presentado.
  • Deber del Juez: Indagar sobre verificaciones y validar la veracidad de los escritos.

Sistemas de IA internos (SIA):

  • El reglamento francés asume compromisos específicos respecto del desarrollo de sistemas de IA internos, que puedan ampliar el uso de sistemas de inteligencia artificial en la función jurisdiccional.
  • Transparencia, rendimiento y autonomía estratégica: Se manifestó el compromiso a informar públicamente qué sistemas de IA desarrolla, para qué usos y bajo qué garantías de control humano. Estableció que todo sistema deberá ser auditable, explicable y conforme a los textos aplicables, con exclusión de documentos protegidos por secreto.

Adaptación al contexto peruano

La incorporación de herramientas de inteligencia artificial en la función jurisdiccional solo resulta compatible con el Estado de Derecho si preserva las garantías del debido proceso y la responsabilidad del juez por la decisión final.

Reglamento especializado:

Un reglamento de IA en el ordenamiento peruano debería: delimitar usos admisibles, asegurar la seguridad de la información procesal y establecer deberes de alerta frente al riesgo que pueden representar estos sistemas para la imparcialidad del juez peruano.

Seguridad y protocolos:

De igual manera, el sistema peruano podría establecer su propio protocolo de emergencia por filtración de datos, tomando de referencia el protocolo británico. De esta manera, garantizar que el uso de IA no ponga en riesgo la privacidad de quienes acceden al sistema de justicia.