Cuando la Justicia abdica en la máquina

Un magistrado se enfrenta a un expediente disciplinario por redactar una sentencia usando una herramienta de inteligencia artificial. Se trata de un hecho que no es constitutivo de una simple conducta reprochable técnicamente, sino que describe, en realidad, un síntoma: el de una Justicia que se confunde sobre su propia naturaleza.

El Magistrado —ponente de una sentencia en un tribunal colegiado— decidió encargar a ChatGPT la redacción de una resolución judicial. No solo eso: introdujo en la herramienta el expediente completo, sin conocimiento del tribunal, y presentó después un borrador en el que no eliminó los rastros de esa forma de actuar, dando lugar a la denuncia de sus compañeros de Sala. El resultado: un expediente disciplinario, con una propuesta de sanción leve dentro del abanico posible.

Reducir el problema a una «mala praxis» o a un uso indebido de herramientas digitales es quedarse en la superficie. Aquí no estamos ante un juez torpe o vago, sino ante un juez que ha confundido el acto de juzgar con el acto de redactar.

Porque una sentencia no es un texto: es una decisión en ejercicio de una facultad del Estado. De ahí que el judicial no sea un auténtico poder político, sino una función estatal que debe ser independiente. Es la cristalización de un juicio humano, situado, responsable. La actuación del expedientado implica trasladar el núcleo mismo de la función jurisdiccional a un sistema que carece de conciencia, responsabilidad y legitimidad.

No es que la inteligencia artificial no deba usarse en la Justicia. Es que no puede sustituir aquello que define a la Justicia: el juicio.

Hay otro dato especialmente inquietante en la noticia: el magistrado subió la totalidad del procedimiento judicial a una plataforma externa. Esto no es solo una imprudencia. Es una quiebra del deber de custodia, de confidencialidad y, en última instancia, de lealtad institucional. Pero más allá del reproche jurídico, hay una cuestión moral: ¿En qué momento un juez considera aceptable externalizar su trabajo intelectual a un sistema informático susceptible de ser interceptado o, lo que es peor, condicionado externamente en cuanto al resultado final ofrecido? ¿Qué concepción del oficio hay detrás de esa decisión?

Aquí emerge una banalización peligrosa: la del juez como mero ensamblador de textos, no como garante de derechos. La IA no hace más que poner en evidencia una debilidad estructural previa: la falta de verdadera independencia judicial. Cuando los órganos de gobierno de los jueces dependen de cuotas políticas, la independencia deja de ser una garantía estructural para convertirse en una virtud individual, siempre frágil.

Por eso, el caso del magistrado no es una anomalía, sino una consecuencia lógica. Un juez que no se percibe más que como un engranaje dentro de una estructura jerarquizada y politizada, es más proclive a trivializar su función. Si el juicio no es plenamente suyo, tampoco lo es la responsabilidad. La delegación en una máquina no sería entonces más que la fase final de una delegación anterior: la del propio criterio.

La propuesta de sanción —leve, casi simbólica— abre otro debate: ¿Estamos ante una respuesta proporcional o ante una indulgencia institucional? Porque si se acepta que lo ocurrido afecta al núcleo mismo de la función jurisdiccional, la reacción parece insuficiente. Y si, por el contrario, se considera una falta menor, entonces el problema es aún más grave: significaría que no se ha entendido la naturaleza del daño.

Y es que el problema no es que un juez use herramientas de inteligencia artificial. El problema es que piense como estas. La lógica de la IA —probabilística, estadística, despersonalizada— es radicalmente distinta de la lógica jurídica, que exige ponderación, contexto y responsabilidad individual. Si el juez interioriza la primera, aunque sea de forma inconsciente, el derecho se transforma en otra cosa: en una simulación de justicia.

Este caso debería marcar un antes y un después. No por el escándalo puntual, sino por lo que revela: que la frontera entre asistencia tecnológica y sustitución del juicio humano no está clara ni siquiera para quienes deberían custodiarla. Pero también muestra algo más profundo: que esa frontera ya estaba debilitada antes de la llegada de la inteligencia artificial.

La Justicia puede —y debe— modernizarse. Pero hay una línea que no puede cruzar sin dejar de ser lo que es. Esa línea no es técnica. Es política. Es institucional. Es moral. Y, como demuestra este caso, puede que no sea la máquina quien la haya traspasado primero.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Carrito de compra
Traducir
Scroll al inicio