El Consejo General del Poder Judicial español dictó el pasado 28 de enero la Instrucción 2/2026, que regula la utilización de sistemas de inteligencia artificial (“IA”) en el ejercicio de la actividad jurisdiccional (la “Instrucción”). La norma busca establecer criterios, pautas de uso y principios para todos los sistemas de IA que puedan ser utilizados por los magistrados en el desempeño de su labor, incluyendo explícitamente la IA generativa.
El principio decisivo es el control humano efectivo (artículo cuarto). Así, se dispone que los sistemas de IA deben estar sometidos a un control real, consciente y efectivo por parte de los jueces, sin que puedan operar de forma autónoma para la toma de decisiones judiciales, la valoración de hechos o pruebas, o la interpretación y aplicación del dDerecho. A esto se suma, entre otros, el principio de responsabilidad judicial, que reafirma que la responsabilidad plena y exclusiva de las decisiones jurisdiccionales les corresponde a los jueces, quienes no pueden ser sustituidos en el ejercicio de su función.
¿Qué se permite?
La Instrucción permite el uso de sistemas de IA que sean facilitados por el Poder Judicial y estén sujetos a controles de calidad y auditoría. En particular, autoriza su uso como instrumentos de apoyo, por ejemplo, para (i) la búsqueda y localización de normativa, jurisprudencia y doctrina; (ii) el análisis, clasificación y estructuración de información de expedientes o carpetas, con fines de comprensión y organización; (iii) la elaboración de esquemas, resúmenes o borradores internos sin carácter decisorio; y (iv) tareas organizativas o auxiliares (artículo sexto).
El aspecto más sensible de la Instrucción es la elaboración de borradores de resoluciones judiciales, cuyo uso se admite únicamente bajo condiciones estrictas (artículo séptimo). En concreto, estos borradores deben quedar sujetos a la revisión y control personal y permanente del juez, que debe ser completo y crítico. También se explicita que el magistrado conserva la responsabilidad plena y exclusiva de la decisión jurisdiccional, y en ningún caso puede ser sustituido en su función jurisdiccional.
¿Qué se prohíbe?
Se prohíbe en general la utilización de sistemas de IA externos y no institucionales, no avalados por el Poder Judicial, excepto que los jueces los utilicen para finalidades de preparación o estudio, y siempre que la información utilizada a tal fin proceda única y exclusivamente de fuentes abiertas, sin incorporar datos provenientes de expedientes judiciales (artículo noveno).
También se prohíbe incorporar texto en sentencias sin validación crítica (el llamado “IA en las sombras” o Shadow AI), la elaboración de perfiles, la predicción de comportamientos o evaluación de riesgos fuera de supuestos expresamente autorizados (artículo octavo).
Relevancia para Chile
La regulación del uso de IA en la actividad judicial es de particular relevancia para nuestro país. En 2023, según el Informe Acceso a la Justicia y Utilización de TICs en la Justicia, en Chile todavía no se observaban usos de mayor riesgo, como sistemas de predicción de resultados judiciales, herramientas de apoyo a la redacción de sentencias, ni mecanismos automatizados que pudieran influir en la valoración de la prueba o en el razonamiento judicial. En julio de 2025, el Poder Judicial implementó un uso de la IA de bajo riesgo, a saber, un buscador jurisprudencial que emplea IA, y facilita la localización de fallos por palabras clave, fechas, tribunal y tipo de causa.
Sin perjuicio de lo anterior, no puede descartarse que los usos de alto riesgo estén ocurriendo actualmente en el contexto del Poder Judicial, atendida la masificación y fácil acceso a herramientas de IA generativa desde fines de 2023, a partir de la irrupción de ChatGPT, la elevada carga laboral que enfrentan determinados tribunales y magistrados, y la legítima preocupación por incorporar tecnología que permita aumentar la eficiencia y sostenibilidad del sistema judicial. Tampoco puede desconocerse el uso que ya realizan los abogados particulares de estos sistemas, circunstancia que incluso ha dado lugar a recientes sanciones por vulneración del principio de buena fe procesal (2° Juzgado Civil de Concepción, Rol C-6127-2025).
De ser así, la ausencia de un marco regulatorio específico para el uso de IA en la actividad judicial plantea riesgos evidentes para el Estado de Derecho. Entre ellos destacan la posible afectación de la imparcialidad y de la motivación de las decisiones jurisdiccionales, derivada de sesgos incorporados en sistemas de IA no sometidos a controles adecuados; el debilitamiento del principio de juez regular, en la medida que el uso no regulado de herramientas de IA para la elaboración de borradores de sentencias dificulte o neutralice el control humano efectivo sobre la decisión; y riesgos significativos en materia de protección de datos personales y ciberseguridad, vinculados a la confidencialidad de la información judicial y a la pérdida de control sobre los datos personales tratados, riesgos que adquirirán especial relevancia con la entrada en vigor de la Nueva Ley de Protección de Datos Personales el 1 de diciembre de 2026.
En este contexto, la experiencia española resulta particularmente ilustrativa, al ofrecer un referente normativo inmediato para el Poder Judicial chileno en un escenario donde la adopción de tecnologías basadas en IA avanza con mayor rapidez que su regulación. Su valor no es meramente comparado, sino esencialmente preventivo, en cuanto permite identificar y anticipar riesgos antes de que se consoliden prácticas informales, desiguales o no controladas, contribuyendo a resguardar la función jurisdiccional, el debido proceso y la confianza pública en el sistema de justicia.
