Sentencias hechas con IA y el acto de juzgar: un límite que la Justicia no puede delegar
El fallo de Esquel evidencia los riesgos de un uso irreflexivo de la tecnología. También invita a pensar cómo integrar la IA sin renunciar a las garantías constitucionales que sostienen el Estado de derecho.
¿Cuáles son los límites de la uso de la inteligencia artificial (IA)?¿Podría una IA redactar una sentencia? O, aún peor… ¿podría reemplazar a un juez? Parece una pregunta de una película de ciencia ficción, pero no. Por primera vez en la historia judicial argentina, la Cámara Penal de Esquel (Chubut), el 15 de octubre del corriente año, anuló una sentencia al comprobar que un juez de primera instancia había utilizado una herramienta de inteligencia artificial generativa (IAGen) para redactarla.
El magistrado, en lugar de elaborar su propio razonamiento jurídico, habría copiado y pegado párrafos producidos por la IA sin control ni supervisión humana. El tribunal consideró que esta práctica vulnera el deber de fundamentación personal del juez y afecta directamente el derecho de defensa y el debido proceso.
Si bien en distintas provincias del país, incluso en Río Negro, se habían detectado escritos presentados por abogados con citas de fallos inventados por IA, nunca hasta ahora se había conocido un caso en que fuera el juez quien delegara su rol a una IAGen. Llega a conocimiento de la Cámara Penal de Esquel una sentencia en la que se condenaba a un hombre a dos años y seis meses de prisión por robo simple. Al ver los argumentos, los camaristas advirtieron la sentencia la siguiente frase: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar:”.
Quienes utilizamos IA podemos detectar de forma casi automática que es una frase propia de una IAGen. En este caso, esta línea sirvió como prueba de que el magistrado había recurrido a una para redactar la sentencia y en un aspecto central: sobre las nulidades de dos pruebas esenciales en el proceso.
La Cámara declaró nula la sentencia y ordenó la intervención de un nuevo juez. Además, remitió las actuaciones al Superior Tribunal de Justicia de Chubut, en su carácter de órgano de superintendencia, a fin de que investigue y determine alcance de las consecuencias producidas.
Los argumentos de la Cámara
Los camaristas centraron sus argumentos en:
- Falta de control humano: el juez utilizó IAGen sin supervisarla, al punto de incluir en la sentencia parte de su “conversación” con la herramienta.
- Ausencia de transparencia y trazabilidad: no dejó constancia del uso de la herramienta ni del prompt (instrucción dada). Incluso la Cámara señaló que, si esa frase no hubiera quedado escrita, nadie se habría dado cuenta de que la resolución había sido redactada con una IA.
- Delegación indebida de la función judicial: al permitir que un sistema automático fundamente su decisión, incumplió los artículos 16 y 75 del Código Procesal Penal de Chubut.
- Afectación de garantías constitucionales: la resolución careció del razonamiento humano exigido por el principio del juez natural y el debido proceso.
En síntesis, la IA no fue el problema. El problema fue la falta del control humano.
Su utilización fue contraria al Acuerdo Plenario N° 5435 del Superior Tribunal de Justicia del propio Chubut, que aprobó las “Directivas para el uso ético y responsable de inteligencia artificial generativa”, en línea con regulaciones internacionales, como la Carta Ética Europea sobre IA en la Justicia (2018), las recomendaciones de la UNESCO (2021) y de la OCDE (2022).
Supervisión humana
Además, la Comisión Iberoamericana de Ética Judicial, en su Dictamen N° 24 (2023), advirtió: “La implementación de los sistemas de IA puede mejorar la eficiencia y ser de ayuda en los procesos judiciales. No obstante, debe mantenerse la supervisión o revisión humana para prevenir cualquier funcionamiento indebido o desviado que pueda afectar a la adecuada prestación del servicio judicial”.
En Río Negro contamos con dos acordadas, la N° 15/2024 que aprueba el Protocolo de Buenas Prácticas para el uso de IAGen; y la N° 22/2025 que amplía su alcance a los auxiliares externos del Poder Judicial.
La función de juzgar es una responsabilidad indelegable del Estado. No se trata solo de aplicar la ley, implica razonar, interpretar, ponderar hechos y consecuencias, y aplicar la ley con criterio y humanidad. Delegar esta tarea en una herramienta automática no solo contradice el sentido del proceso judicial, sino que pone en riesgo el derecho al debido proceso, una garantía que protege a todas las personas frente al poder del Estado.
La IA como asistente, no como juez
En Corrientes, el juez José Osvaldo Ledesma, en el caso “G.M.C. s/ Información sumaria (Convivencia)”, usó ChatGPT para redactar un párrafo en lenguaje claro, destinado a la peticionante. La IA no escribió la sentencia ni influyó en el fallo: solo ayudó a comunicarlo mejor.
Citando al Dr. Gastón Enrique Bielli, “Tecnologías como los Modelos de Lenguaje de Gran Escala (LLMs) pueden brindar una ayuda significativa al sistema judicial, mejorando la eficiencia, facilitando el análisis de grandes volúmenes de información y apoyando en la redacción de resoluciones. Sin embargo, es necesario considerar que la utilización inadecuada de estas herramientas puede generar efectos adversos, poniendo en riesgo principios fundamentales de la justicia.”.
El fallo de Esquel, por un lado, evidencia los riesgos de un uso irreflexivo de la tecnología; por otro, invita a pensar cómo integrar la IA sin renunciar a las garantías constitucionales que sostienen el Estado de Derecho.
La IA puede ser una gran aliada para para agilizar procesos y mejorar la gestión judicial. Pero solo el razonamiento humano puede dar sentido al acto de juzgar.
(*) Miembro del Instituto de Derecho e I.A. del Colegio de Abogados y Procuradores de Neuquén dirigido por la Dra. Vanesa Ruiz.
¿Cuáles son los límites de la uso de la inteligencia artificial (IA)?¿Podría una IA redactar una sentencia? O, aún peor… ¿podría reemplazar a un juez? Parece una pregunta de una película de ciencia ficción, pero no. Por primera vez en la historia judicial argentina, la Cámara Penal de Esquel (Chubut), el 15 de octubre del corriente año, anuló una sentencia al comprobar que un juez de primera instancia había utilizado una herramienta de inteligencia artificial generativa (IAGen) para redactarla.
Registrate gratis
Disfrutá de nuestros contenidos y entretenimiento
Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora
Comentarios