
El Poder Judicial expedienta a un juez por delegar una sentencia en ChatGPT

La frontera entre la eficiencia tecnológica y la responsabilidad jurisdiccional ha saltado por los aires en el seno del Poder Judicial. El Consejo General del Poder Judicial (CGPJ) ha incoado un expediente disciplinario contra un magistrado de una Audiencia Provincial tras acreditarse el uso de la herramienta ChatGPT para la redacción de una resolución judicial.
El caso, que ha provocado una profunda conmoción en la carrera judicial, plantea un debate sin precedentes sobre la delegación de las funciones más elementales de un juez en sistemas de procesamiento de lenguaje natural.
La Comisión Disciplinaria del órgano de gobierno de los jueces deberá dirimir si ratifica la propuesta de sanción de 15 días de suspensión de funciones y una multa económica de 501 euros.
Esta medida, según ha adelantado El Español y ha confirmado EFE, ha sido reclamada por el promotor de la acción disciplinaria, Ricardo Gonzalo Conde, quien sostiene que el magistrado presentó una "aparente sentencia" cuya motivación jurídica fue íntegramente generada por métodos artificiales.
Por el contrario, la Fiscalía se ha posicionado a favor del archivo de las actuaciones, al considerar que no existe una infracción disciplinaria tipificada de forma explícita.
El error que dejó al descubierto la práctica fue de naturaleza técnica y humana: el juez olvidó suprimir del texto definitivo del que era ponente las preguntas y comandos introducidos en la interfaz de la IA.
Según el instructor, la infracción no reside en el uso complementario de la tecnología, sino en el hecho de que el magistrado "eludió cumplir con su función jurisdiccional" al suministrar la totalidad de las actuaciones a un servidor externo sin las debidas cautelas de privacidad ni advertencia previa al resto de los integrantes del tribunal.
Este incidente subraya la vulnerabilidad de la seguridad de datos en el entorno judicial. Al subir autos completos a una inteligencia artificial comercial, se habrían expuesto datos personales sensibles de los litigantes sin ninguna protección.
El promotor del expediente califica esta actuación como una falta de lealtad y un quebrantamiento del deber elemental de dictar sentencia basándose en un razonamiento humano real, consciente y efectivo, tal como exige el ordenamiento jurídico español.
La irrupción de modelos generativos de lenguaje en entornos profesionales ha generado una zona gris legislativa.
Mientras algunos sectores ven en la IA una vía para descongestionar juzgados, los organismos reguladores advierten que la "deshumanización" de la justicia podría socavar la confianza de los ciudadanos en el sistema legal.
El pasado 28 de enero, anticipándose a estos escenarios, el Pleno del CGPJ aprobó una instrucción taxativa sobre el uso de la IA. En dicho documento, se prohíbe explícitamente que estas herramientas suplan a los miembros de la carrera judicial en la valoración de pruebas o en la aplicación del derecho.
La instrucción recalca que los jueces solo están autorizados a emplear aplicaciones proporcionadas por la Administración de Justicia que hayan superado los controles de seguridad y sesgos algorítmicos. Este primer expediente marca, por tanto, el límite ético del año 2026: la IA puede asistir, pero en ningún caso podrá sentenciar.
Con información de EFE







Bill Gates comparecerá ante el Congreso para aclarar su relación con Epstein


La desaparición de Sarah Ferguson: castillos, deudas y tres teléfonos móviles




