Transparencia algorítmica: la nueva obligación de la abogacía

IA en el Sector Legal: Automatización JurídicaBy 3L3C

La justicia española entra en la era de la responsabilidad algorítmica. Qué implica el caso BOSCO, el AI Act y la transparencia de la IA para despachos y empresas.

inteligencia artificialautomatización jurídicatransparencia algorítmicaderecho laboralReglamento Europeo de IAresponsabilidad civil tecnológica
Share:

Featured image for Transparencia algorítmica: la nueva obligación de la abogacía

Transparencia algorítmica: el nuevo terreno de juego para la abogacía

En septiembre de 2025 el Tribunal Supremo español obligó a destapar el código del algoritmo BOSCO, que decide quién accede al bono social eléctrico. Ese día muchos despachos entendieron algo clave: la Inteligencia Artificial en la Administración y en la empresa ya no es solo tecnología, es materia contenciosa, laboral y constitucional… y va a entrar en los juzgados una y otra vez.

En esta serie sobre IA en el Sector Legal y automatización jurídica, este tema es crítico: ningún proyecto de IA en un despacho, ni ninguna herramienta de automatización que asesoremos a clientes a implantar, puede ignorar la transparencia y el control algorítmico. No es una moda regulatoria; es la nueva base de la responsabilidad jurídica.

En este artículo veremos qué está diciendo la justicia española, cómo encaja con el RGPD y el Reglamento Europeo de IA, y, sobre todo, qué implica en la práctica para despachos de abogados, asesorías jurídicas internas y departamentos de RR. HH. que usan o van a usar sistemas de IA.


1. Qué ha cambiado con el caso BOSCO: del mito de la «caja negra» a la supervisión judicial

La sentencia del Tribunal Supremo 1119/2025 sobre el algoritmo BOSCO es, hoy por hoy, el gran punto de inflexión en transparencia algorítmica en España.

Idea clave: si un algoritmo decide sobre un derecho o una prestación pública, su funcionamiento debe poder supervisarse y revisarse judicialmente. No hay “caja negra” que valga.

El Supremo reconoce el derecho de un ciudadano a acceder al código fuente de BOSCO, utilizado para asignar el bono social eléctrico. El mensaje es muy claro:

  • La complejidad técnica no es excusa para negar transparencia.
  • La IA que afecta a derechos debe ser explicable, auditada y controlable.
  • La opacidad tecnológica no puede blindar decisiones administrativas.

«La transparencia algorítmica deja de ser una recomendación y pasa a ser un principio jurídicamente exigible.»

¿Qué implica esto para la automatización jurídica?

Para los despachos que asesoran a Administraciones o grandes compañías, este precedente cambia la conversación con el cliente:

  • Cualquier sistema de IA que filtre, priorice o decida sobre expedientes, ayudas, sanciones o reclamaciones deberá diseñarse pensando en su futura defensa en un juzgado.
  • La documentación técnica (diseño del modelo, variables, controles de sesgo, auditorías) deja de ser un activo interno de IT y se convierte en prueba potencial.
  • Los contratos con proveedores de IA deben asegurar acceso al código, a la documentación y a los registros de decisiones si un juez lo requiere.

Si tu despacho está empezando a ofrecer servicios de automatización de procesos legales, integrar desde el inicio esta lógica de trazabilidad es una ventaja competitiva clara.


2. El frente laboral: cuando el algoritmo manda en turnos, objetivos y despidos

En el ámbito laboral, la alarma ya ha sonado: la Audiencia Nacional ha recordado que el artículo 64.4 del Estatuto de los Trabajadores obliga a informar al comité de empresa sobre algoritmos y sistemas de inteligencia artificial que afecten:

  • a turnos y horarios;
  • a evaluación de productividad o rendimiento;
  • a promociones internas;
  • a despidos y extinciones.

Ocultar o maquillar el papel del algoritmo puede vulnerar:

  • el derecho a la igualdad y a la no discriminación;
  • la libertad sindical (por falta de información a la representación legal);
  • la tutela judicial efectiva, al impedir cuestionar la decisión.

Caso típico en 2025: gestión algorítmica de plantillas

Muchas plataformas y grandes empresas españolas usan ya sistemas de IA para:

  • asignar rutas o turnos;
  • valorar desempeño en base a datos de producción o atención al cliente;
  • activar alertas de “bajo rendimiento” que acaban en despidos.

Si el despacho asesora a la empresa y no se analiza el sistema algorítmico, el riesgo es enorme:

  • demandas por despido nulo por discriminación indirecta;
  • conflictos colectivos por falta de información sobre los algoritmos;
  • actuaciones de la Inspección de Trabajo ligadas a sesgos y transparencia.

Para despachos especializados en automatización jurídica interna, este es un nicho natural: revisión jurídica de herramientas de IA en RR. HH., políticas internas de transparencia y protocolos de información a la representación legal de los trabajadores.


3. El entramado normativo: RGPD, Ley 15/2022 y Reglamento Europeo de IA

La IA no está en un vacío legal. El control algorítmico se apoya ya en tres pilares normativos que cualquier abogado que trabaje con automatización jurídica debe dominar.

3.1. RGPD y decisiones automatizadas

El artículo 22 del RGPD reconoce el derecho a no ser objeto de decisiones basadas únicamente en tratamientos automatizados que produzcan efectos jurídicos o afecten significativamente a la persona.

Traducción práctica:

  • No basta con un “es cosa del sistema”. Debe existir intervención humana significativa.
  • La persona afectada tiene derecho a obtener una explicación, a expresar su punto de vista y a impugnar la decisión.

En entornos donde los despachos usan IA para priorizar asuntos, valorar riesgos o proponer acuerdos, esto obliga a mantener siempre un control humano real sobre la decisión final.

3.2. Ley 15/2022 y sesgos algorítmicos

La Ley 15/2022 de Igualdad de Trato y No Discriminación es una herramienta muy potente contra los sesgos algorítmicos.

Si un algoritmo:

  • penaliza sistemáticamente a ciertos grupos (edad, género, origen, discapacidad…);
  • utiliza variables aparentemente neutras que correlacionan con categorías protegidas;

puede haber discriminación indirecta, aunque nadie haya querido discriminar.

Aquí los despachos tienen una doble vertiente de trabajo:

  • Defensiva: impugnación de decisiones automatizadas que vulneren igualdad de trato.
  • Preventiva: diseño de metodologías de auditoría ética y legal de algoritmos para clientes.

3.3. Reglamento Europeo de Inteligencia Artificial (AI Act)

El Reglamento Europeo de IA, en vigor desde el 01/08/2024, estructura todo en torno a una idea: no toda IA es igual; la de alto riesgo tiene obligaciones reforzadas.

Se consideran sistemas de alto riesgo, entre otros:

  • IA para prestaciones sociales y servicios esenciales.
  • IA para contratación, despido, selección y promoción laboral.
  • IA para crédito, scoring financiero y condiciones de préstamos.
  • IA usada en seguridad, orden público, justicia e identificación biométrica.
  • IA que gestiona infraestructuras críticas (transporte, energía, agua, telecomunicaciones).

Para estos sistemas, el AI Act exige:

  • documentación técnica exhaustiva;
  • gestión de riesgos y pruebas previas al despliegue;
  • trazabilidad de datos y decisiones;
  • supervisión humana eficaz;
  • registro de incidentes y medidas correctoras.

Cualquier despacho que ofrezca servicios de automatización jurídica debe asumir que parte de las herramientas que recomiende, diseñe o audite van a entrar en esta categoría de alto riesgo.


4. Responsabilidad por decisiones de IA: quién responde y por qué

La realidad jurídica está yendo hacia una idea simple: quien usa un sistema algorítmico opaco que afecta a derechos fundamentales asume el riesgo de su mal funcionamiento.

Hoy los jueces siguen utilizando conceptos clásicos de culpa y negligencia, pero la práctica apunta hacia modelos de responsabilidad casi objetiva en estos supuestos:

  • uso de sistemas sin auditorías previas;
  • ausencia de controles de sesgo documentados;
  • negativa a facilitar código, datos o explicaciones técnicas en un proceso.

¿Quién responde, el proveedor o el usuario?

Con la combinación RGPD + AI Act + doctrina reciente, la respuesta tiende a ser ambos:

  • Proveedor de IA: por diseño defectuoso del sistema, falta de información, incumplimiento de requisitos de alto riesgo.
  • Usuario (empresa o Administración): por usar una herramienta sin verificar su adecuación jurídica, sin supervisión humana o sin transparencia hacia los afectados.

Para los despachos, esto abre varias líneas de trabajo muy claras en el ámbito de la automatización jurídica:

  • Revisión de contratos con proveedores de IA: garantías, acceso a documentación, reparto de riesgos, cláusulas de cooperación en litigios.
  • Diseño de políticas internas de uso de IA: quién puede usar qué, cómo se supervisa, cómo se documentan las decisiones.
  • Acompañamiento en litigios algorítmicos: desde impugnar decisiones de IA hasta defender sistemas propios de la empresa.

5. Checklist práctico para jueces, abogados y despachos que usan IA

Para que la IA en el sector legal y la automatización jurídica sean una oportunidad y no un foco de litigios constantes, hace falta método. Esta es una síntesis operativa de lo que ya se está viendo en los tribunales.

5.1. Para abogados litigantes

Cuando un caso afecte a decisiones tomadas con IA o algoritmos:

  1. Pide trazabilidad completa
    Solicita:

    • código o, al menos, descripción técnica detallada;
    • datos de entrenamiento y criterios de selección;
    • informes de validación y auditorías internas.
  2. Reclama pericial especializada en IA
    No basta con un informe de parte genérico. Necesitas expertos que puedan explicar el modelo en lenguaje jurídico: qué hace, con qué datos, con qué margen de error.

  3. Exige motivación reforzada
    Si la decisión se apoya en IA, debe explicarse cómo influyó el algoritmo. La frase “lo dice el sistema” no cumple los estándares de motivación de una resolución administrativa o empresarial.

  4. Ataca sesgos y efectos desproporcionados
    Conecta directamente con la Ley 15/2022: revisa variables sensibles, impacto por colectivos y alternativas menos lesivas.

  5. Invoca el Reglamento Europeo de IA
    Si el sistema es de alto riesgo, pregunta por:

    • el análisis de riesgos;
    • la documentación obligatoria;
    • la existencia (o no) de supervisión humana real.

5.2. Para despachos que implementan automatización jurídica

Si estás diseñando o integrando herramientas de IA en tu propio despacho o en clientes:

  • Define casos de uso de bajo riesgo para empezar (clasificación documental, extracción de cláusulas, resúmenes), donde el impacto en derechos fundamentales sea reducido.
  • Mantén al abogado siempre en el bucle: la IA propone, la persona decide y firma.
  • Documenta todo: criterios de implantación, controles de calidad, formación impartida a usuarios.
  • Crea un registro interno de incidentes: decisiones erróneas, sesgos detectados, intervenciones correctoras.
  • Revisa periódicamente el sistema con ayuda técnica y jurídica; no basta con una validación inicial.

Así, cuando llegue el primer conflicto serio en torno a la IA que utilizas, tendrás algo muy valioso: un relato probatorio sólido de que has actuado con diligencia.


6. Hacia una automatización jurídica responsable y rentable

La era de la responsabilidad algorítmica ya ha llegado a la justicia española. El mensaje que están enviando el Tribunal Supremo, la Audiencia Nacional y el legislador europeo es directo:

«Responderá quien usa la IA y quien tenía el deber de garantizar su transparencia, seguridad y control.»

Para los despachos que trabajan en IA en el sector legal esto no es un freno, sino un marco de juego claro. Los proyectos de automatización jurídica que triunfarán en los próximos años en España tendrán tres rasgos comunes:

  1. Transparencia desde el diseño: sistemas explicables, documentados y auditables.
  2. Supervisión humana real: el abogado sigue siendo responsable de la decisión final.
  3. Gobernanza jurídica sólida: contratos, políticas internas y protocolos que soportan el escrutinio judicial.

Si tu despacho está valorando implantar IA para revisión de contratos, investigación jurídica automatizada o gestión de expedientes, este es el momento de hacerlo bien:

  • identifica qué herramientas pueden ser de alto riesgo;
  • revisa cómo vas a explicar sus decisiones ante un cliente o un juez;
  • define quién responde y cómo se va a demostrar la diligencia.

La automatización jurídica no va de sustituir abogados por algoritmos, sino de construir equipos mixtos humano-máquina donde la parte humana tenga el control… y también la última palabra. Quien entienda esto ahora, en 12-24 meses estará muy por delante en el mercado.