Limpiar filtros

Doctrina

Inicio / Doctrina

octubre  19, 2025

(5411) 4371-2806

Resumen de la Doctrina Volver >

Justicia en Jaque: Un "Copiar y Pegar" de Inteligencia Artificial anula una sentencia penal en Chubut. -Comentario al fallo Carpeta Judicial nro. 6209 - “PROVINCIA DEL CHUBUT c/ P.R.A.” (Legajo Fiscal N° 59560) - CÁMARA EN LO PENAL DE LA CIRCUNSCRIPCIÓN JUDICIAL DE ESQUEL (Chubut) - 15/10/2025

Por Horacio R. Granero


"En un fallo sin precedentes que marca un antes y un después en la justicia argentina, la Cámara Penal de Esquel anuló una condena por robo no por errores en la investigación del delito, sino por el uso indebido de Inteligencia Artificial (IA) por parte del juez de Primera Instancia. La negligencia quedó expuesta por una frase delatora que el magistrado olvidó borrar: 'Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar'."

"La Cámara en lo Penal de Esquel [...] dictó el pasado 15 de octubre una resolución contundente: anular por completo la sentencia N° 1239/2025 que condenaba a R.A.P. a dos años y seis meses de prisión efectiva. [...] Al revisar el fallo del juez C.R.R., los magistrados de la Cámara descubrieron que un apartado crucial de la sentencia, donde se resolvían los planteos de nulidad de la defensa, había sido generado por un asistente de Inteligencia Artificial."

"Delegación Prohibida de la Función de Juzgar [...] 'Aceptar que el Juez puede delegar en un asistente artificial la fundamentación de su resolución podría significar en los hechos la eliminación de la competencia'. Un algoritmo, por avanzado que sea, carece de la conciencia, la experiencia y la voluntad que, según la doctrina jurídica citada en el fallo, son esenciales para el acto de impartir justicia."

"Falta de Transparencia y Trazabilidad [...] esta opacidad 'impide controlar cuál ha sido el grado de asistencia requerida y, con ello, el control de las partes en cuanto a la trazabilidad del razonamiento del magistrado'. Sin esa trazabilidad, el derecho a la defensa y a la revisión de un fallo ('doble conforme') se ve seriamente vulnerado."

"Violación de la Supervisión Humana y la Confidencialidad [...] el juez no advirtiera la frase 'listo para copiar y pegar' demuestra una falta de supervisión mínima y diligente. Además, la Cámara alertó sobre la alta probabilidad de que el juez haya introducido en el sistema de IA datos sensibles y confidenciales del expediente, [...] violando el deber de confidencialidad."

"Incumplimiento de la Normativa Vigente [...] prohíbe explícitamente 'la delegación de decisiones judiciales a sistemas automáticos'. La sentencia de la Cámara funciona, en este sentido, como la primera aplicación práctica y sancionatoria de estas directrices."

"Otro de los Camaristas lo resume con claridad al afirmar que 'la opacidad típica de los algoritmos de caja negra es incompatible con el derecho de defensa', ya que un imputado debe poder 'cuestionar todo lo que haya influido en la decisión judicial que lo afecta, incluso si se tratara de una sugerencia algorítmica'."

"El mensaje es claro: la inteligencia artificial puede ser un asistente, un 'co-piloto' en el mejor de los casos, pero la responsabilidad de juzgar seguirá siendo, indelegablemente, humana, no pudiendo ser tenido nunca, por lo tanto, como un 'piloto automático'."

Citar: elDial.com - DC36E7



Publicado el 17/10/2025

Copyright 2025 - elDial.com - editorial albrematica - Tucumán 1440 (1050) - Ciudad Autónoma de Buenos Aires - Argentina

Texto Completo

PLANTILLA CON LINKS


 

Justicia en Jaque: Un "Copiar y Pegar" de Inteligencia Artificial anula una sentencia penal en Chubut

-Comentario al fallo Carpeta Judicial nro. 6209 - “PROVINCIA DEL CHUBUT c/ P.R.A.” (Legajo Fiscal N° 59560) - CÁMARA EN LO PENAL DE LA CIRCUNSCRIPCIÓN JUDICIAL DE ESQUEL (Chubut) - 15/10/2025-(*)

 

Por Horacio R. Granero

 

 

En un fallo sin precedentes que marca un antes y un después en la justicia argentina, la Cámara Penal de Esquel anuló una condena por robo no por errores en la investigación del delito, sino por el uso indebido de Inteligencia Artificial (IA) por parte del juez de Primera Instancia. La negligencia quedó expuesta por una frase delatora que el magistrado olvidó borrar: "Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar".

 

Lo que parecía ser la apelación de una condena rutinaria por robo simple se ha transformado en un caso emblemático sobre los peligros y responsabilidades del uso de la tecnología en el Poder Judicial. La Cámara en lo Penal de Esquel, integrada por los jueces Carina Paola Estefanía, Martín Eduardo Zacchino y Hernán Dal Verme, dictó el pasado 15 de octubre una resolución contundente: anular por completo la sentencia N° 1239/2025 que condenaba a R.A.P. a dos años y seis meses de prisión efectiva. [1]

 

El motivo no fue la falta de pruebas contra el acusado, sino un vicio de fundamentación tan grave como insólito. Al revisar el fallo del juez C.R.R., los magistrados de la Cámara descubrieron que un apartado crucial de la sentencia, donde se resolvían los planteos de nulidad de la defensa, había sido generado por un asistente de Inteligencia Artificial. La prueba irrefutable fue una frase que el propio sistema de IA generó como instrucción para el usuario y que el juez copió y pegó en el documento final sin advertir el error.

 

La frase, "Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar:" precede directamente al capítulo donde el juez debía justificar por qué desestimaba los argumentos de la defensa sobre la invalidez de dos pruebas clave: los videos de cámaras de seguridad y una pericia criminalística comparativa.

 

Esta revelación llevó a la Cámara a declarar la nulidad de oficio de todo el pronunciamiento, ordenar la realización de un nuevo juicio con un juez distinto y, además, remitir las actuaciones al Superior Tribunal de Justicia para que investigue la conducta del magistrado implicado.

 

El caso original se refería a un robo ocurrido en Esquel el 17 de noviembre de 2023. R.A.P. fue condenado en junio de 2025 tras un juicio en el que la fiscalía se basó en gran medida en filmaciones de cámaras de seguridad que, supuestamente, lo mostraban merodeando la zona del hecho.

 

La defensa impugnó la sentencia argumentando una "errónea valoración de la prueba". Cuestionó la legalidad de la obtención de los videos y la validez de la pericia realizada por el Lic. E., que comparaba las imágenes con las características físicas del acusado. Fue precisamente al analizar la respuesta del juez a estos planteos donde la Cámara se topó con la intervención de la IA.

 

Este fallo no solo devuelve el caso a foja cero para el acusado, sino que abre un profundo debate sobre los límites éticos y legales de la tecnología en la labor judicial, sentando un precedente que resonará en todos los tribunales del país.

 

El fallo de la Cámara de Esquel no se limita a señalar el "copiar y pegar" como un simple descuido. Los jueces analizaron en detalle por qué la acción del magistrado C.R.R. constituye una violación a garantías constitucionales fundamentales y a las normativas vigentes sobre el uso de tecnología en la justicia.

 

El apartado IV de la sentencia anulada era el corazón de la decisión judicial, ya que allí el juez debía explicar con fundamentos lógicos y legales por qué las pruebas centrales de la acusación eran válidas.

 

Al delegar esta tarea en una IA, incurrió en una serie de faltas graves que la Cámara desglosó meticulosamente en su resolución.

 

1. Delegación Prohibida de la Función de Juzgar La garantía del "juez natural", consagrada en la Constitución, establece que toda persona debe ser juzgada por un tribunal competente, imparcial e independiente, es decir, por un ser humano investido por el Estado para esa función. Los jueces de la Cámara argumentaron que "aceptar que el Juez puede delegar en un asistente artificial la fundamentación de su resolución podría significar en los hechos la eliminación de la competencia". Un algoritmo, por avanzado que sea, carece de la conciencia, la experiencia y la voluntad que, según la doctrina jurídica citada en el fallo, son esenciales para el acto de impartir justicia. La justicia no es un cálculo matemático, sino una "operación humana".

 

2.  Falta de Transparencia y Trazabilidad Uno de los pilares del debido proceso es la fundamentación de las sentencias, que permite a las partes comprender el razonamiento del juez para poder impugnarlo. En este caso, la Cámara se encontró ante un obstáculo insalvable: es imposible saber qué instrucción (prompt) recibió la IA, qué datos del caso se le suministraron, qué fuentes utilizó para su respuesta o si su algoritmo contiene sesgos. Como señaló uno de los Camaristas, en su voto, esta opacidad "impide controlar cuál ha sido el grado de asistencia requerida y, con ello, el control de las partes en cuanto a la trazabilidad del razonamiento del magistrado". Sin esa trazabilidad, el derecho a la defensa y a la revisión de un fallo ("doble conforme") se ve seriamente vulnerado.

 

3. Violación de la Supervisión Humana y la Confidencialidad El propio Acuerdo Plenario N°5435 del Superior Tribunal de Justicia de Chubut, que regula el uso de IA, exige un "control humano" obligatorio sobre todas las respuestas generadas por estos sistemas. El hecho de que el juez no advirtiera la frase "listo para copiar y pegar" demuestra una falta de supervisión mínima y diligente.  Además, la Cámara alertó sobre la alta probabilidad de que el juez haya introducido en el sistema de IA datos sensibles y confidenciales del expediente, como nombres de testigos, peritos y del propio acusado, sin ningún tipo de anonimización, violando el deber de confidencialidad.

 

4. Incumplimiento de la Normativa Vigente La actuación del juez no fue solo un error ético, sino un claro incumplimiento de las "Directivas para el uso ético y responsable de inteligencia artificial generativa en el Poder Judicial de Chubut", aprobadas por el STJ. Dicha normativa, pionera en el país, permite el uso de la IA como una herramienta complementaria, pero prohíbe explícitamente "la delegación de decisiones judiciales a sistemas automáticos". La sentencia de la Cámara funciona, en este sentido, como la primera aplicación práctica y sancionatoria de estas directrices.

 

La anulación de la sentencia en Esquel trasciende las fronteras de la provincia y se erige como un caso de estudio fundamental para el futuro de la justicia en la era digital. El fallo no es una condena a la tecnología, sino una contundente advertencia sobre su uso irresponsable.

 

Mientras que en otros casos resonantes en Argentina se había sancionado a abogados por utilizar IA para citar jurisprudencia inexistente, esta es la primera vez que se anula una sentencia por el uso indebido de estas herramientas por parte de un juez.

 

La gravedad es exponencialmente mayor, ya que afecta directamente la validez de los actos del Estado.

 

El fallo de la Cámara de Esquel se inserta en una discusión global sobre la regulación de la IA. Los propios jueces citan instrumentos de la UNESCO, la Comisión Europea y la Comisión Iberoamericana de Ética Judicial, que coinciden en la necesidad de mantener siempre la supervisión y el control humano en las decisiones críticas, especialmente en el ámbito judicial.

 

La resolución demuestra que los principios de transparencia, imparcialidad y derecho a la defensa no pueden ser reemplazados por la eficiencia que promete la automatización. Como argumenta otro de los Camaristas en su voto, la falta de transparencia del juez R. impidió "conocer la verdadera fuente del pensamiento o del razonamiento", un requisito indispensable para el control de los actos de gobierno.

 

Lejos de una visión "apocalíptica", los magistrados reconocen el potencial de la IA para mejorar la eficiencia en tareas como la redacción de documentos o la síntesis de información. Sin embargo, establecen una línea roja infranqueable: la sustitución del criterio y el juicio profesional del operador judicial.

 

Otro de los Camaristas lo resume con claridad al afirmar que "la opacidad típica de los algoritmos de 'caja negra' es incompatible con el derecho de defensa", ya que un imputado debe poder "cuestionar todo lo que haya influido en la decisión judicial que lo afecta, incluso si se tratara de una sugerencia algorítmica".

 

¿Cuáles son las consecuencias de lo ocurrido?

 

   Para el acusado R.A.P., la decisión significa que la condena en su contra queda sin efecto y deberá enfrentar un nuevo juicio oral ante un tribunal diferente.

   Para el juez C.R.R., la remisión de su caso al Superior Tribunal de Justicia abre la puerta a un proceso disciplinario que determinará su responsabilidad por mal desempeño.

  Para la Justicia argentina, el caso "PROVINCIA DEL CHUBUT c/ P.R.A." se convierte en una referencia ineludible: la adopción de nuevas tecnologías debe ir de la mano de una capacitación rigurosa y un compromiso inquebrantable con las garantías constitucionales.

 

El mensaje es claro: la inteligencia artificial puede ser un asistente, un “co-piloto” en el mejor de los casos, pero la responsabilidad de juzgar seguirá siendo, indelegablemente, humana, no pudiendo ser tenido nunca, por lo tanto, como un “piloto automático”.

 



(*) Carpeta Judicial nro. 6209 - “PROVINCIA DEL CHUBUT c/ P.R.A.” (Legajo Fiscal N° 59560) - CÁMARA EN LO PENAL DE LA CIRCUNSCRIPCIÓN JUDICIAL DE ESQUEL - 15/10/2025 (elDial.com - AAEC4F)



Citar: elDial.com - DC36E7



Publicado el 17/10/2025

Copyright 2025 - elDial.com - editorial albrematica - Tucumán 1440 (1050) - Ciudad Autónoma de Buenos Aires - Argentina

LIBROS Y CURSOS JURÍDICOS QUE PODRÍAN INTERESARTE