IA en auditoría y Derecho: la responsabilidad sigue siendo humana

AI para Recursos Humanos: El Futuro del TalentoBy 3L3C

La IA ya está en auditorías y despachos, pero la responsabilidad sigue siendo humana. Cómo usarla sin poner en riesgo tu firma ni tu responsabilidad profesional.

inteligencia artificialsector legalauditoríaresponsabilidad profesionalautomatización jurídicaética de la IA
Share:

IA en auditoría y Derecho: la responsabilidad sigue siendo humana

El dato incómodo es este: aunque una herramienta de inteligencia artificial acierte en el 97 % de los casos, ese 3 % restante puede arruinar una auditoría, un procedimiento penal o la reputación de un despacho. Y cuando eso ocurre, no responde el algoritmo, responde la persona que firma.

Eso recordó el magistrado del Tribunal Supremo Manuel Marchena en el Foro de Expertos Confilegal Auditores celebrado en Madrid. Su mensaje va muy directo a auditores, abogados, directores de cumplimiento y firmas que están incorporando IA en sus procesos: la responsabilidad jurídica no se automatiza.

Este artículo recoge sus ideas clave, las conecta con el marco regulatorio europeo y baja el debate al terreno práctico: cómo usar IA en el sector legal y de auditoría sin poner en riesgo tu responsabilidad profesional ni la confianza de tus clientes.


1. IA como herramienta: útil, sí; sustituto, nunca

La idea central es sencilla: la inteligencia artificial es un instrumento de apoyo, no un reemplazo del juicio profesional.

“Auditar es algo más que validar lo que dice un algoritmo”, recuerda Marchena.

En la práctica, esto significa:

  • La IA puede analizar millones de transacciones en segundos.
  • Puede detectar patrones anómalos que un equipo humano tardaría semanas en ver.
  • Puede proponer borradores de informes, contratos o resoluciones.

Pero ninguna de estas funciones convierte al algoritmo en sujeto responsable. Quien firma el informe o la opinión jurídica eres tú, y ahí es donde se concentra la responsabilidad civil, penal, administrativa y disciplinaria.

Lo que sí puedes delegar (y lo que no)

En una auditoría o en un despacho, la IA puede asumir tareas como:

  • Cribado documental masivo (contratos, facturas, correos).
  • Análisis de riesgos contables con modelos predictivos.
  • Revisión preliminar de jurisprudencia relevante.
  • Borradores de cláusulas estándar o minutas repetitivas.

Lo que no puedes delegar de forma segura ni ética es:

  • La valoración de riesgos que asumes al firmar un informe.
  • La interpretación jurídica final de un caso complejo.
  • La decisión de que un resultado es razonable o necesita revisión.
  • La comprobación de coherencia entre datos, contexto y conclusiones.

Si la IA te da un 97 % de confianza estadística, tu trabajo empieza en el 3 % de duda razonable: ponderarlo, documentarlo y tomar una decisión que puedas defender ante un regulador o un juez.


2. ¿Quién responde por una auditoría errónea con IA?

La respuesta de Marchena es directa: la responsabilidad sigue siendo humana. Y esto encaja con la lógica del marco europeo (Reglamento de IA, Directiva de responsabilidad por IA y normativa de auditoría).

El error clásico: “lo dijo el algoritmo”

Cuando un auditor o un abogado se limita a decir: “esto lo ha hecho ChatGPT” o “es el resultado de la herramienta”, está cometiendo dos errores graves:

  1. Error jurídico: la IA no es sujeto de derecho (de momento). No firma, no asume riesgo, no responde ante un tribunal.
  2. Error profesional: demuestra ausencia de supervisión y de criterio propio. Es prácticamente una confesión de negligencia.

El uso responsable de IA exige al menos:

  • Supervisión humana significativa (lo que también pide el Reglamento de IA en sistemas de alto riesgo).
  • Trazabilidad de las decisiones: dejar rastro de por qué se aceptó o se corrigió el resultado del sistema.
  • Documentación en el expediente de auditoría o en el dossier del asunto.

Diferenciar error humano de fallo del sistema

En la práctica, cuando algo sale mal con IA en el circuito, pueden coexistir tres niveles de responsabilidad:

  1. Responsabilidad del profesional que firma (auditor, abogado, perito). Es la puerta de entrada prioritaria.
  2. Responsabilidad de la firma que decide implantar esa herramienta, diseña el protocolo de uso y forma a su equipo.
  3. Responsabilidad del proveedor tecnológico, cuando el fallo se debe a un defecto del producto o servicio (por ejemplo, un sesgo no informado, un error sistemático en los cálculos, falta de medidas de seguridad).

Lo que pide Marchena —y el propio enfoque europeo— es evitar que la víctima tenga que hacer un tour judicial para descubrir quién responde. De ahí el interés de mecanismos de responsabilidad objetiva y fondos específicos financiados por las grandes empresas de IA.


3. Casos reales: cuando el juez copia al robot

Nada aterriza mejor el problema que un ejemplo real. Marchena cita un caso argentino reciente: un juez utilizó IA para redactar una sentencia condenatoria y no eliminó las instrucciones internas del sistema, donde se leía literalmente “copiar lo que se establece en la respuesta siguiente”.

El resultado:

  • El justiciable recibe la sentencia.
  • Observa la referencia al “robot” en el texto.
  • Recurre alegando falta de motivación real.
  • El tribunal superior anula la sentencia.

La cuestión de fondo es clave para jueces, pero también para auditores y peritos:

¿Se cumple la exigencia constitucional de motivar una resolución si el juez se limita a hacer suyo el razonamiento de un algoritmo?

Para Marchena, la respuesta es categórica: “Nunca, jamás”.

Lección práctica para despachos y firmas de auditoría

Quien sustituye su propia argumentación por la del sistema asume varios riesgos:

  • Que el cliente, el regulador o el juez detecten rastros de texto generados sin revisión.
  • Que se cuestione la validez de la motivación del informe o dictamen.
  • Que se abra la puerta a impugnaciones masivas de trabajos realizados con IA.

Solución realista:

  • Usar IA para proponer argumentos, no para adoptarlos en bloque.
  • Editar, reescribir y adaptar con criterio propio.
  • Dejar claro internamente qué parte es apoyo de IA y cuál es elaboración profesional.

4. El riesgo de una jurisprudencia y una auditoría “fosilizadas”

Hay un peligro silencioso cuando jueces, abogados y auditores se apoyan de forma acrítica en sistemas entrenados sobre datos históricos: la realidad social cambia, el algoritmo no.

Cómo se fosiliza el criterio

Los modelos de IA jurídica y contable suelen entrenarse con:

  • Jurisprudencia de las últimas décadas.
  • Criterios de supervisores y reguladores.
  • Informes y dictámenes previos.

Si el algoritmo sólo reproduce lo que ya se hizo:

  • Reafirma soluciones antiguas, aunque el contexto haya cambiado.
  • Penaliza la creatividad jurídica y la reinterpretación adaptativa.
  • Puede consolidar injusticias estructurales o criterios desfasados.

Marchena lo explica con un ejemplo muy sencillo: cuando el Supremo detecta que una determinada línea interpretativa está generando resultados excesivamente rígidos, convoca un Pleno y “pega un volantazo” a la jurisprudencia. Esa capacidad de romper con la inercia no está codificada en el modelo.

En auditoría y cumplimiento ocurre algo similar: si sólo copiamos umbrales, controles y matrices de riesgo históricas, no vemos los nuevos fraudes, ni los nuevos modelos de negocio, ni las nuevas formas de blanqueo.

Qué pueden hacer los despachos y las firmas

Para que la IA no fosilice tu criterio profesional:

  • Actualiza los datos de entrenamiento con criterios recientes y cambios normativos.
  • Introduce escenarios hipotéticos y casos límite en tus pruebas internas.
  • Diseña procesos donde, cada cierto tiempo, se revise:
    • Qué tipo de casos resuelve bien el sistema.
    • En cuáles se equivoca de forma sistemática.
    • Si está dejando fuera nuevas tipologías de riesgo.

Y, sobre todo, mantén un espacio para la disidencia interna: socios, seniors y especialistas que cuestionen lo que el modelo “da por bueno”.


5. De la teoría a la práctica: cómo integrar IA en tu firma sin perder el control

El mensaje de Marchena no es tecnófobo. De hecho, asume que quien no se forme en IA tendrá un serio problema de obsolescencia profesional. La cuestión no es “IA sí o no”, sino “IA cómo”.

Cinco pasos mínimos para un uso responsable en el sector legal

  1. Política interna de uso de IA

    • Define qué herramientas se pueden usar y para qué casos.
    • Prohíbe expresamente delegar la motivación completa de informes o resoluciones en IA.
  2. Principio de revisión humana obligatoria

    • Ningún texto o conclusión generada por IA se entrega al cliente o se presenta ante un organismo sin revisión y validación humana.
    • Esto debe aplicarse tanto a borradores de sentencias simuladas como a informes de auditoría y opiniones legales.
  3. Trazabilidad y registro

    • Documenta cuándo se ha utilizado IA en un trabajo, qué tipo de sistema era y qué peso tuvo en la decisión final.
    • Esta trazabilidad será clave ante eventuales reclamaciones o inspecciones.
  4. Formación jurídica y técnica del equipo

    • No basta con enseñar a “usar la herramienta”.
    • Es necesario explicar los riesgos jurídicos específicos: sesgos, alucinaciones, falta de actualización normativa y responsabilidad profesional.
  5. Evaluación de impacto y proveedores

    • Antes de implantar un sistema de IA en procesos críticos, realiza una evaluación de impacto jurídico y ético.
    • Revisa contratos con proveedores: responsabilidad, seguridad de datos, propiedad intelectual de los resultados.

IA, ética y datos personales: el cóctel delicado

Marchena menciona un estudio de Cambridge: con apenas 7 “likes” un algoritmo te conoce mejor que un compañero de trabajo; con 100–150, mejor que tu pareja; con 200, mejor que tus padres. Esa capacidad predictiva aplicada a datos financieros, patrones de gasto o historiales de litigios convierte a la IA en una herramienta potentísima… y también en un riesgo serio para:

  • La privacidad de clientes y empleados.
  • La no discriminación (por ejemplo, en scoring de riesgo de crédito o selección de proveedores).
  • La confianza en el despacho o en la firma de auditoría.

Quien dirige un despacho o una firma debe contemplar también el derecho a no ser engañado por deepfakes, documentos manipulados o simulaciones hiperrealistas. Cada vez será más relevante acreditar la autenticidad de pruebas, grabaciones y comunicaciones.


6. ¿Hacia una “personalidad electrónica” y responsabilidad objetiva?

En escenarios donde la IA toma decisiones con fuerte impacto físico o patrimonial (vehículos autónomos, robots quirúrgicos, sistemas automáticos de trading), Marchena ve razonable avanzar hacia modelos de responsabilidad objetiva y, quizá, hacia una forma de “personalidad electrónica” limitada.

La lógica es pragmática:

  • El ciudadano no tiene por qué entrar en el laberinto de quién diseñó, entrenó, desplegó o supervisó el sistema.
  • Debe existir un fondo o mecanismo claro de compensación, alimentado por los enormes beneficios de las grandes empresas de IA.
  • A posteriori, ya se ajustarán cuentas entre fabricantes, desarrolladores y operadores.

En el plano penal y disciplinario, sin embargo, el foco seguirá en las personas físicas y jurídicas que deciden implantar la tecnología, fijan los protocolos de uso y permiten (o no) que un algoritmo actúe sin supervisión adecuada.

Para el sector legal y de auditoría, esto implica una cosa muy concreta: cada proyecto de IA relevante debería verse como una fuente potencial de responsabilidad, y tratarse con la misma seriedad que una nueva línea de negocio regulada.


7. Qué deberían hacer hoy los despachos y firmas que no quieren quedarse atrás

La advertencia final de Marchena, apoyándose en autores como Richard Susskind o Yuval Noah Harari, es incómoda pero realista: la abogacía y la justicia cambiarán más en 20 años que en los últimos 200. Quien ignore la IA corre el riesgo de volverse irrelevante.

Para que esto no ocurra, y a la vez proteger tu responsabilidad, puedes empezar por:

  • Diseñar una estrategia de IA jurídica y de auditoría, no limitarte a probar herramientas sueltas.
  • Crear un comité interno mixto (jurídico, tecnológico, cumplimiento) que revise casos de uso y riesgos.
  • Identificar procesos de alto valor donde la IA aporte eficiencia sin desplazar el juicio profesional (revisión documental, análisis predictivo de litigios, detección de fraude contable).
  • Ofrecer a tus clientes servicios específicos de “auditoría de algoritmos” o “revisión legal de sistemas de IA”, un nicho que crecerá con la nueva regulación europea.

La realidad es que los clientes ya están preguntando —o lo harán en 2026, cuando la regulación europea de IA empiece a desplegarse de lleno— si sus asesores jurídicos y auditores entienden de IA tanto como de derecho mercantil o normas NIAS.

Quedarse fuera de esa conversación no es prudencia. Es perder relevancia.


La frase de Marchena resume bien el punto de equilibrio:

“Dictar justicia es algo más que firmar sentencias. Y auditar es algo más que validar lo que dice un algoritmo.”

La IA en el sector legal y en la auditoría ha llegado para quedarse, pero no para asumir tu responsabilidad. Tu papel cambia: menos trabajo mecánico, más supervisión, más criterio, más diseño de sistemas y más capacidad de explicar por qué decidiste confiar —o no— en lo que la máquina te propuso.

Quien entienda esto a tiempo no sólo reducirá riesgos. Estará mejor posicionado para ofrecer a sus clientes servicios jurídicos y de auditoría realmente adaptados a la era algorítmica.