Hace unos meses publicaba en mis redes, el hallazgo de una sentencia que me fue adversa en un proceso laboral, en la cual pude determinar que la misma había sido elaborada por medio de la inteligencia artificial. Ello se denotaba en los fundamentos intelectivos y jurídicos que no eran concordantes con las normas a las cuales hacía referencia. Se hablaba de lo que al efecto decía un artículo del Código de Trabajo y este no se correspondía en su contenido con la realidad. Indicaba al ente superior que el fundamento intelectivo y jurídico no era propio del juzgador y que como tal lo actuado era nulo. Aun espero lo que al efecto se resuelva.
El Poder Judicial, comunico mediante la Circular N.° 31-2026, titulada “Reglas y lineamientos éticos para el uso de Inteligencia Artificial Generativa (ChatGPT, Gemini y NotebookLM) por parte de las personas servidoras judiciales” misma que según nuestro parecer parte de una premisa correcta: la IA debe ser una herramienta de apoyo, nunca un sustituto del criterio humano. Sin embargo, una lectura detenida del documento revela una regulación construida más desde el temor al error que desde una visión institucional de gobernanza tecnológica responsable y moderna.
Atribuye el texto y así lo deja claro en la responsabilidad personal del funcionario que utiliza estas herramientas, siendo su énfasis tal cual desproporcionado. El Poder Judicial autoriza el uso de IA, pero traslada prácticamente todo el riesgo al individuo: errores, “alucinaciones”, fallos de privacidad y consecuencias disciplinarias, civiles o incluso penales. Se trata de una autorización sin corresponsabilidad institucional. Esto es incorrecto, por cuanto el actuar de los administrados si causa daño, también genera la responsabilidad objetiva del Estado y por tanto del Poder Judicial en dicho accionar. No es mediante un lineamiento que la responsabilidad se traslade solo a una de las partes, cuando el ente administración tiene el deber “in vigilando”, es decir se encuentra bajo su responsabilidad supervisar y controlar la conducta, desempeño y seguridad de sus subordinados. Siendo su incumplimiento generador de responsabilidad por danos causados por omisión de vigilancia.
Se exige a jueces, fiscales, defensores y personal administrativo verificar configuraciones técnicas complejas, desactivar reentrenamientos de modelos y garantizar que datos sensibles no sean utilizados externamente. Todo ello en un entorno donde la mayoría de plataformas comerciales no ofrece transparencia técnica real al usuario promedio. Se impone así un deber técnico que supera, con creces, el perfil profesional para el cual la mayoría de funcionarios judiciales no fueron formadas.
Particularmente delicada es la obligación de dejar constancia expresa del uso de IA en expedientes y documentos judiciales. La transparencia es un valor democrático incuestionable; sin embargo, la Circular no regula los efectos jurídicos de esa revelación. ¿Puede alegarse nulidad por el uso de IA? ¿Se abre una nueva causal recursiva? ¿Se convierte esta nota en un nuevo flanco de litigiosidad estratégica? El silencio normativo en estos puntos no es menor: es una omisión que puede impactar la seguridad jurídica.
La regulación tal cual se reviste de uniformidad. Los lineamientos se aplican por igual a funciones decisorias, investigativas, defensivas y meramente administrativas. No se distingue entre usar IA para corregir estilo, resumir documentos o estructurar ideas, y emplearla como apoyo sustantivo en decisiones de fondo. La proporcionalidad, principio reiterado en el discurso ético del documento, no se refleja en su diseño normativo.
La Circular también enumera principios éticos loables —no discriminación, control de sesgos, imparcialidad—, pero carece de mecanismos reales de supervisión institucional. No hay indicadores, auditorías, ni órganos especializados de control. En la práctica, la ética queda reducida a una declaración de buenas intenciones depositada, nuevamente, en la conciencia individual. Esperamos que junto a la circular, las buenas prácticas de su uso sean también parte de ello.
El problema de fondo es que el Poder Judicial regula la IA sin una política pública clara sobre su uso. No hay herramientas institucionales certificadas, ni capacitación obligatoria y continua, ni un modelo de gobernanza tecnológica que asuma la IA como parte estructural del futuro de la justicia. Se regula el riesgo, pero no se lidera la innovación. Si solo se regula el riesgo, se garantiza la supervivencia, pero sino se lidera la innovación, se garantiza lo arcaico.
La inteligencia artificial no es una amenaza que deba ser contenida únicamente con advertencias y responsabilidades disciplinarias. Es una realidad que exige reglas claras, sí, pero también acompañamiento, infraestructura, capacitación y corresponsabilidad institucional. Regular desde el miedo puede evitar errores aislados; gobernar desde la visión permite construir justicia moderna, eficiente y segura.
La Circular 31-2026 es un primer paso necesario, pero es insuficiente. Si el Poder Judicial aspira a una transformación digital seria, deberá pasar de la lógica del “úsese bajo su propio riesgo” a una verdadera política de inteligencia artificial judicial, donde la responsabilidad sea compartida, la tecnología esté gobernada y la innovación no sea vista como una amenaza, sino como una oportunidad al servicio de la justicia.