El peligro de un juez sin rostro

Boris Berenzon Gorn

En el umbral del siglo XXI, la tecnología —una especie de Prometeo moderno— irrumpe en la vida pública con promesas tan vastas como imprecisas: alivia cargas, libera tiempos, pulveriza procesos. En el ámbito judicial, esa irrupción se presenta con un halo casi mesiánico: el sueño de una justicia más rápida, más accesible, menos opaca.

De pronto, el lenguaje del derecho, tradicionalmente denso y ritual, comienza a ser traducido, interpretado y hasta sintetizado por sistemas inteligentes. En España, por ejemplo, la plataforma “Carpeta Justicia” busca integrar la gestión de expedientes, notificaciones y documentos judiciales bajo un modelo digital interoperable. En su fase más reciente, incorpora módulos de inteligencia artificial capaces de traducir sentencias al lenguaje común, detectar errores formales y sugerir jurisprudencia relevante. Su meta declarada es clara: reducir la brecha entre el ciudadano y la justicia, entre el lenguaje jurídico y el sentido común.

En México, un proyecto similar —llamado “Sor Juana”, en homenaje a la escritora y pensadora que defendió el derecho a la palabra y a la razón— pretende simplificar el contenido de las sentencias para que la ciudadanía pueda comprenderlas sin mediadores técnicos. No se trata de cambiar el fallo, sino de hacerlo legible, comprensible, humano. Una sentencia, en este modelo, ya no sería un texto críptico reservado a especialistas, sino un mensaje social, un acto de transparencia. En principio, nada más loable.

Estos avances son reales, tangibles, y merecen reconocimiento. Constituyen un esfuerzo por abrir los expedientes al escrutinio público y modernizar estructuras judiciales que durante siglos parecieron inamovibles. Sin embargo, ese reconocimiento debe venir acompañado de una advertencia. Porque detrás de cada interfaz amable y cada algoritmo eficiente se esconde una tentación profunda: el tecnosolucionismo.

El tecnosolucionismo —esa fe ingenua o prepotente en que la tecnología por sí sola resolverá los males de la sociedad— se alza como una trampa sistemática. Bajo su influjo, se supone que bastaría con digitalizar la justicia para hacerla justa, automatizar los procesos para volverlos equitativos o introducir algoritmos para eliminar la corrupción. Pero la corrupción, el sesgo o la desigualdad no son fallas de programación, sino fallas humanas, históricas, institucionales. Y un algoritmo, por muy sofisticado que sea, no puede corregir lo que el propio sistema no reconoce como error.

Así, el tecnosolucionismo judicial corre el riesgo de confundir eficiencia con justicia, transparencia con control, objetividad con deshumanización. Si bien estas herramientas pueden agilizar procedimientos o democratizar el acceso a la información, también pueden perpetuar sesgos invisibles, consolidar asimetrías o, peor aún, trasladar el poder de decidir —que pertenece al juez y al razonamiento humano— hacia sistemas cerrados y opacos.

Porque la advertencia no es retórica ni paranoia futurista: ya está aquí, en forma de código. Lo que se discute hoy no es si la inteligencia artificial podrá participar en los procesos judiciales, sino hasta qué punto debe hacerlo. La línea que separa la asistencia de la sustitución se vuelve cada día más tenue. En países como China o Estonia, algunos tribunales experimentan con programas que asignan automáticamente los casos o sugieren condenas basadas en patrones estadísticos. En Estados Unidos, los algoritmos de evaluación de riesgo —como COMPAS— ya influyen en decisiones de libertad condicional o fijación de penas, pese a haber sido denunciados por reproducir sesgos raciales y de clase.

Ese es el rostro inquietante del llamado “juez-máquina”, un arquetipo que encarna la ilusión del juicio perfecto: sin emociones, sin corrupción, sin titubeos. Sin embargo, también sin empatía, sin contexto, sin la vacilación que convierte a la justicia en un acto moral, no en una operación matemática. Un juez que nunca duda, que no escucha, que solo calcula, sería —en el sentido profundo del término— inhumano. La justicia, en cambio, necesita precisamente de esa duda, de esa escucha y de esa demora que hacen posible la comprensión del otro.

La Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos lo ha advertido con claridad en su informe de 2025 sobre la inteligencia artificial en los sistemas judiciales: la automatización puede servir de apoyo, pero jamás debe reemplazar la deliberación humana. Sin transparencia, sin auditorías independientes ni control democrático, el riesgo es enorme. Una IA puede —inadvertidamente o no— asignar casos a jueces afines, alterar la ponderación de las pruebas o incluso decidir, mediante cálculos de “riesgo social”, quién va preso y quién queda libre. En un sistema así, la justicia deja de ser un espacio de reflexión y se convierte en una máquina de decisiones automatizadas.

Por eso la ONU propone blindar el derecho a un juez humano y a un abogado humano, garantizando que toda decisión judicial siga siendo atribuible a una persona y no a un software. En su recomendación más firme, el organismo sugiere que sean los propios jueces, y no las empresas tecnológicas, quienes decidan qué herramientas adoptar, siempre bajo reglas públicas, auditables y revisables. El objetivo no es frenar la innovación, sino humanizarla, someterla al escrutinio ético y a la rendición de cuentas.

En una sentencia reciente, la Suprema Corte de Pakistán recordó algo que podría figurar como emblema de este debate global: “La justicia solo es legítima si quien juzga es un ser humano que escucha y comprende”. Escuchar y comprender: dos verbos imposibles de programar. Un algoritmo puede detectar palabras, pero no silencios; puede interpretar patrones, pero no intenciones; puede establecer correlaciones, pero no justicia.

Lo que está en juego es más vasto que la eficiencia: es la preservación del juicio como acto moral y humano. La IA puede ayudar a la justicia —traduciendo, organizando, sistematizando—, pero nunca debe reemplazarla. Porque una justicia sin humanidad no es más rápida: es más ciega.

La paradoja de nuestro tiempo es que, en nombre del progreso, podríamos terminar renunciando a lo más progresista que poseemos: la conciencia. Si entregamos el poder de juzgar a las máquinas, el precio no será técnico, sino civilizatorio. Dejaríamos de preguntarnos no solo qué es justo, sino quién tiene derecho a decidirlo.

La inteligencia artificial puede ser una aliada de la justicia, pero solo si permanece en su lugar: como herramienta, no como oráculo. El derecho, al final, no se escribe en código binario. Se escribe en el lenguaje incierto, contradictorio y profundamente humano de la conciencia. Porque el día en que un algoritmo dicte sentencia sin escuchar la voz del otro, la justicia habrá dejado de ser un ejercicio de razón y responsabilidad, para convertirse en una simple ejecución automática del poder.