IA jurídica y auditoría: la responsabilidad sigue siendo humana

IA en el Sector Legal: Automatización JurídicaBy 3L3C

La IA ya está en auditorías y despachos, pero la responsabilidad sigue teniendo nombre y apellidos humanos. Así se usa con rigor sin poner en riesgo tu firma.

inteligencia artificialsector legalauditoríaresponsabilidad profesionalautomatización jurídicajurisprudenciacompliance
Share:

IA jurídica y auditoría: la responsabilidad sigue siendo humana

En una auditoría financiera apoyada en IA que falla, el algoritmo no se sienta en el banquillo; quien responde es la persona que firma el informe. Esa es la tesis de Manuel Marchena, magistrado del Tribunal Supremo, y es también el punto ciego de muchos despachos y firmas de auditoría que están incorporando herramientas de inteligencia artificial a gran velocidad.

Este asunto afecta de lleno a la automatización jurídica en España: revisión de contratos, due diligence masivas, análisis de riesgo, informes de compliance o auditorías legales apoyadas en IA. La productividad crece, pero también lo hace el riesgo de que alguien pretenda «delegar» la responsabilidad profesional en un algoritmo. Y eso, hoy por hoy, no cuela ante un juez.

En este artículo, dentro de la serie “IA en el Sector Legal: Automatización Jurídica”, te propongo algo muy concreto: entender dónde está realmente la responsabilidad cuando usamos IA y cómo organizar el despacho o el departamento de auditoría para aprovechar la tecnología sin suicidarse jurídicamente.


1. Lo que dice Marchena (y por qué debería importarte)

La idea central es clara: usar IA no reduce la responsabilidad del profesional, la aumenta. Porque ahora, además de responder por tu criterio, respondes también por cómo usas la herramienta.

«El auditor que dice: ‘ya he terminado mi trabajo de auditoría porque hago mías las conclusiones de un algoritmo’ está asumiendo una responsabilidad de primerísimo orden» (M. Marchena).

Si un auditor, un abogado o un perito firma un informe basado en IA, a ojos del Derecho español no existe un “algoritmo responsable”. Hay:

  • Un profesional que decide utilizar una herramienta.
  • Una firma u organización que adopta esa tecnología.
  • Y un cliente o afectado que tiene derecho a exigir responsabilidades.

Por eso la frase «yo confiaba en el algoritmo» no funciona como defensa. Marchena lo resume muy bien: puedes apoyarte en la confianza estadística que te ofrece el modelo (por ejemplo, un 97 % de precisión), pero el 3 % de error sigue siendo tu problema. Ese porcentaje es donde entra el criterio profesional, la revisión humana y, si hace falta, la duda razonable.

Para los despachos, esto tiene una consecuencia directa

Si estás implantando IA jurídica en tu firma:

  • No basta con contratar una licencia de software y anunciar que sois “un despacho innovador”.
  • Tienes que definir protocolos de uso, revisión y validación humana.
  • Y documentar quién hace qué, cuándo y con qué límites.

Automatizar sin gobernanza es invitar a un futuro pleito de responsabilidad profesional.


2. IA como herramienta, no como sustituto del criterio jurídico

Marchena lo plantea de forma muy gráfica: la IA es comparable al salto que supuso Word frente a la máquina de escribir. Facilita, acelera, organiza. Pero no piensa por ti.

En el contexto español, las herramientas que más se están implantando en despachos y asesorías son:

  • Sistemas de revisión automática de contratos (cláusulas de riesgo, lenguaje abusivo, inconsistencias).
  • Plataformas de investigación jurídica automatizada (búsqueda de jurisprudencia, doctrina, normativa actualizada).
  • Soluciones de análisis masivo de datos para auditorías, compliance y litigación compleja.

Todas ellas son fantásticas si las tratas como asistentes. El problema llega cuando se convierten en sustitutos.

«Lo que no puedes hacer es decir: ‘esto me lo ha dicho ChatGPT o el instrumento correspondiente, y yo firmo’. Evidentemente tú eres el responsable de esa decisión».

Buen uso vs. mal uso de la IA en un despacho

Buen uso:

  • Utilizas IA para filtrar y ordenar 10.000 documentos en una due diligence.
  • Identificas riesgos potenciales que quizá se te escaparían a simple vista.
  • Un abogado senior revisa, contrasta y decide qué se incorpora al informe.

Mal uso:

  • Pides a la herramienta un resumen “listo para enviar al cliente”.
  • Copias, pegas, cambias el logo y firmas.
  • Te olvidas de revisar fuentes, sesgos, omisiones y errores.

En el primer caso, la IA aumenta tu capacidad profesional. En el segundo, la encubre… hasta que algo explota.


3. El espejo argentino: cuando el juez copia al algoritmo

El caso que cita Marchena ocurrido en Argentina es muy ilustrativo para cualquiera que esté automatizando la práctica jurídica.

Un juez utiliza IA para redactar una sentencia condenatoria. Copia el texto generado, pero olvida eliminar las instrucciones internas del propio sistema, algo del estilo de: «copiar lo que se establece en la respuesta siguiente». El justiciable ve aquello en su sentencia, recurre y la resolución termina anulada.

La pregunta jurídica es demoledora: ¿basta con hacer propios los argumentos de un algoritmo para cumplir con el deber constitucional de motivar una resolución?

La respuesta de Marchena es rotunda: no, nunca.

¿Qué significa esto para la automatización jurídica en España?

  • Las resoluciones judiciales, los dictámenes y las auditorías deben mostrar un esfuerzo argumental humano, reconocible.
  • La IA puede ayudar a buscar fundamentos, aportar comparativas o resúmenes, pero no puede ser la fuente última de la motivación.
  • Si el texto final parece más el output de un modelo que el razonamiento de un profesional, estás creando un punto débil jurídico enorme.

Mi experiencia viendo cómo algunos despachos usan IA es clara: el problema no es tanto la herramienta, sino la tentación del “copiar/pegar” cuando hay presión de tiempos. Y esa tentación es precisamente lo que hay que regular internamente.


4. Riesgo de jurisprudencia fosilizada: por qué la IA no puede gobernar el Derecho

Otro punto clave que subraya Marchena es el riesgo de que la jurisprudencia se congele si los jueces, o los abogados, se apoyan ciegamente en algoritmos entrenados con decisiones de los últimos 30 o 50 años.

Los modelos de IA jurídica suelen funcionar así:

  • Analizan miles de sentencias y extraen patrones.
  • Recomiendan la solución «más probable» en función del precedente.

Eso suena razonable… hasta que recuerdas que el Derecho no es solo repetición, también es evolución. Cada cierto tiempo, los tribunales cambian de criterio para adaptarse a nuevas realidades sociales, tecnológicas o económicas.

«Hay que pegar un volantazo a esta jurisprudencia», contaba Marchena sobre un pleno del Supremo previsto para enero.

Un algoritmo, por diseño, tiende a reforzar lo que ya existe. Retroalimenta el pasado. No tiene intuición moral ni sensibilidad social para detectar cuándo una línea jurisprudencial está generando injusticias.

¿Cómo afecta esto a la IA en despachos y departamentos legales?

  1. Riesgo de consejos jurídicos demasiado conservadores: si tu sistema siempre propone lo más “estadísticamente seguro”, puedes dejar de ver vías creativas o estratégicas que sí son defendibles ante un tribunal.
  2. Sesgos históricos: si la base de datos está llena de decisiones sesgadas (por género, origen, clase social), el modelo amplificará esos sesgos.
  3. Falsa apariencia de neutralidad: la famosa idea de la “justicia sin etiquetas” algorítmica es peligrosa. Un modelo siempre responde a:
    • Qué datos se le dieron.
    • Qué objetivo se programó (ganar más casos, reducir litigiosidad, disminuir condenas, etc.).

Quien programa, decide. Y, como plantea Marchena, ¿quién controla al que programa? Esa pregunta todavía no tiene una buena respuesta regulatoria, ni en España ni en la UE, aunque se está avanzando.


5. Responsabilidad, seguros y la posible “personalidad electrónica”

Cuando la IA no solo ayuda, sino que toma decisiones autónomas con impacto físico o patrimonial fuerte —coches autónomos, robots quirúrgicos, sistemas de trading automático—, el modelo clásico de responsabilidad se queda corto.

Aquí Marchena mira hacia la solución europea: mecanismos de responsabilidad objetiva y fondos de compensación.

¿Qué implica la responsabilidad objetiva en sistemas de IA?

  • La víctima no tiene que demostrar culpa o negligencia, solo el daño y la relación con el sistema de IA.
  • Se crean fondos específicos (al estilo del Consorcio de Compensación de Seguros) financiados por las grandes empresas tecnológicas.
  • Se evita el “peregrinaje jurisdiccional” para intentar descubrir quién es el responsable último del algoritmo.

Incluso plantea una idea que suena muy futurista, pero que no está tan lejos del debate europeo: la personalidad electrónica para ciertos sistemas muy autónomos. Como hoy aceptamos que una sociedad mercantil pueda delinquir, podríamos acabar aceptando que determinados sistemas de IA tengan un estatuto jurídico específico que facilite la atribución de responsabilidad y la gestión de seguros.

Para el sector legal y de auditoría, esto abre un nicho claro:

  • Nuevas pólizas de seguro de responsabilidad profesional asociada a IA.
  • Cláusulas contractuales específicas sobre riesgos algorítmicos.
  • Proyectos de compliance algorítmico en empresas que usan IA de alto impacto.

6. Qué debería hacer hoy un despacho que quiere usar IA en serio

Si quieres aprovechar la automatización jurídica sin entrar en zona de peligro, necesitas menos discurso “tech” y más diseño jurídico interno. Algunas medidas muy prácticas:

1. Política interna de uso de IA

Redacta un documento claro que responda a:

  • Para qué se puede usar IA (borradores, resúmenes, investigación, nunca para firmar directamente).
  • Quién está autorizado a usarla (perfiles, niveles de seniority).
  • Qué datos nunca se pueden introducir (datos personales sensibles, secretos empresariales, información confidencial sin anonimizar).

2. Revisión humana obligatoria

Implanta una regla sencilla: ningún output de IA llega al cliente sin revisión humana cualificada. En auditoría, en un informe de riesgos o en un dictamen:

  • Señala internamente qué partes han sido apoyadas por IA.
  • Obliga a que alguien las lea con mentalidad crítica, no con fe tecnológica.

3. Trazabilidad y registro

Para protegerte ante un eventual conflicto:

  • Conserva un registro de qué herramienta se utilizó, qué “prompt” o instrucción se dio y qué versión del modelo estaba en uso.
  • Esto no es burocracia vacía: es prueba de que actuaste con diligencia si un cliente cuestiona el proceso.

4. Formación jurídica y ética en IA

No basta con un webinar de “nuevas tecnologías”. Los equipos necesitan:

  • Conocer los sesgos típicos de los modelos.
  • Entender los límites legales (protección de datos, secreto profesional, propiedad intelectual).
  • Saber identificar cuándo una respuesta de IA es sospechosamente segura y merece doble verificación.

5. Hablar claro con los clientes

Es sensato explicar a los clientes corporativos que se utilizan herramientas de automatización jurídica para ser más eficientes, pero también dejar claro que:

  • La responsabilidad última del trabajo sigue recayendo en el despacho o la firma.
  • Hay controles humanos y protocolos para minimizar errores.

Esto genera confianza y, de paso, te obliga a mantener esos estándares.


7. IA jurídica en 2025: oportunidad enorme, pero con nombre y apellidos

Como recuerda Marchena citando a Richard Susskind, la justicia y la abogacía van a cambiar en las próximas dos décadas más que en los últimos doscientos años. Habrá tareas jurídicas que quedarán obsoletas y perfiles profesionales que se queden al margen por negarse a entender cómo funciona la tecnología.

La “clase social de los irrelevantes” de la que habla Harari no es un tema de ciencia ficción: en el sector legal ya se nota la brecha entre despachos que:

  • Usan IA de forma estratégica, con gobernanza y responsabilidad, y
  • Despachos que o bien la rechazan por completo, o bien la usan a escondidas y sin control.

La automatización jurídica bien entendida no te quita trabajo, te cambia el tipo de trabajo: menos tareas repetitivas, más análisis, estrategia, supervisión y diseño de garantías.

La idea clave de todo este debate se resume en una frase de Marchena que debería estar impresa en el manual interno de cualquier firma que use IA:

«Dictar justicia, hacer justicia, es algo más que firmar sentencias. Y auditar es algo más que validar lo que dice un algoritmo».

Si te tomas en serio esa frase, la IA puede ser tu mejor aliada en el despacho. Si no, puede convertirse en el testigo principal del próximo procedimiento de responsabilidad profesional en tu contra.

🇪🇸 IA jurídica y auditoría: la responsabilidad sigue siendo humana - Spain | 3L3C