La IA está transformando la auditoría jurídica en España. La clave no es elegir entre usarla o no, sino usarla bien: con datos fiables, control humano y responsabilidad clara.
IA y auditoría jurídica: del algoritmo al juicio experto
En el IV Foro de Expertos Confilegal Auditores, celebrado el 11/12/2025 en el Hotel Mandarín Oriental Ritz de Madrid, una idea se repitió varias veces: la auditoría que conocemos va a cambiar, pero la responsabilidad seguirá siendo humana.
Este mensaje encaja de lleno con la serie “IA en el Sector Legal: Automatización Jurídica”: los despachos y departamentos legales están adoptando herramientas de inteligencia artificial a gran velocidad, pero no siempre con una estrategia clara de gobernanza, control y ética. Y en el mundo de la auditoría —interna, externa, de cumplimiento o forense— ese desorden puede ser letal.
En este artículo extraigo y desarrollo las claves del Foro Confilegal, pero con un enfoque muy práctico para despachos de abogados, departamentos de compliance, auditores internos y firmas de servicios profesionales que ya están probando o pensando en incorporar IA en sus procesos.
1. Del juicio profesional al juicio algorítmico: qué está pasando en realidad
La realidad es directa: la auditoría ya no es solo un ejercicio de revisión documental, es un ejercicio de análisis masivo de datos. Y ahí la IA encaja como anillo al dedo.
Javier Campelo, Head of Data Analytics & IA en BDO, lo resumió con una frase que debería estar pegada en la pared de cualquier despacho:
«La evolución del dato va a cambiar el mundo. La IA ya no solo predice, también hace cosas nuevas».
Aplicado a la auditoría y a la automatización jurídica, esto se traduce en varios cambios concretos:
- La revisión manual de miles de facturas, contratos o expedientes deja de tener sentido cuando un modelo puede identificar anomalías en segundos.
- Los muestreos estadísticos clásicos se sustituyen por revisiones casi integrales basadas en analítica avanzada.
- El trabajo del junior pasa de “picar datos” a validar resultados, explicar riesgos y dialogar con el cliente.
La tentación es clara: delegar en el algoritmo gran parte del trabajo. El problema es que el algoritmo no firma el informe, lo firma una persona. Ahí nace el verdadero “reto” del auditor frente a la inteligencia artificial.
2. Sesgos, entrenamiento y calidad del dato: el lado oscuro de la automatización
El primer gran riesgo, subrayado en el Foro, es obvio pero se sigue ignorando: la IA aprende de los datos que le damos y de las instrucciones que definimos.
Campelo lo explicó con claridad:
«Según cómo entrenemos a la IA, tendrá más o menos sesgos. Cuidar el algoritmo es fundamental para que funcione bien».
Para un despacho de abogados o un área de auditoría esto tiene tres implicaciones prácticas:
2.1. Si los datos están mal, la auditoría automatizada estará mal
- Datos incompletos o mal clasificados → modelos que “ven” solo parte del riesgo.
- Históricos sesgados (por ejemplo, solo se investigaron ciertos tipos de fraude) → la IA replicará esa ceguera.
Consejo práctico: antes de invertir en IA, invierte en gobernanza del dato. Clasificación, limpieza, trazabilidad y reglas claras de uso. Sin eso, la automatización jurídica es un castillo de naipes.
2.2. Sesgos legales y reputacionales
En la auditoría de cumplimiento, especialmente en áreas sensibles como contratación pública, prevención de blanqueo o laboral, un modelo puede:
- Penalizar sistemáticamente a cierto tipo de proveedores o perfiles de empleados.
- Ignorar indicios de riesgo porque “nunca salían en los casos históricos”.
Esto ya no es solo un fallo técnico: es un riesgo jurídico (discriminación, vulneración de derechos, decisiones no transparentes) y un riesgo reputacional.
2.3. Gobernanza desde el minuto uno
Para evitarlo, cualquier proyecto de IA aplicada a auditoría o revisión jurídica debería incluir, sí o sí:
- Un mapa de riesgos de sesgo algorítmico.
- Políticas de documentación del modelo: qué datos usa, cómo se entrena, qué limitaciones tiene.
- Un mecanismo de revisión humana obligatoria para decisiones sensibles.
Esto no es burocracia: es blindar al auditor (y al socio que firma) frente a futuras reclamaciones.
3. Gobernanza, control y responsabilidad: humanos y algoritmos bajo supervisión
La mesa central del Foro Confilegal —con Eloy Velasco (Audiencia Nacional), Elena del Tiempo (ASCOM), Manuel de Alzúa (Instituto de Auditores Internos) y el propio Campelo— giró en torno a una idea que muchos quieren esquivar: ¿quién responde por una auditoría errónea realizada con IA?
La respuesta de los ponentes fue clara: la responsabilidad sigue siendo humana.
Eloy Velasco lo expresó con crudeza jurídica:
«Si usas IA para generar un informe y firmas ese informe, al final serás tú el que tenga que responder, aunque no entiendas el proceso de creación de ese documento».
Desde la óptica de automatización jurídica, esto tiene varias consecuencias que conviene aterrizar.
3.1. La IA como herramienta, no como escudo
- “Lo hizo la IA” no sirve como defensa en un error de auditoría o un dictamen equivocado.
- El profesional debe poder explicar en términos comprensibles cómo se ha obtenido un resultado.
En la práctica, esto significa:
- Exigir a los proveedores de IA informes explicativos (modelo, datos, controles de calidad).
- Documentar en el expediente qué intervención humana ha habido: validaciones, ajustes, excepciones.
3.2. Riesgo de “relajación” profesional
Velasco también lanzó una advertencia que en muchos despachos ya se empieza a notar:
«Lo más peligroso desde un punto de vista jurídico es que el uso de IA haga que te relajes en cuanto a la información que produce».
Es decir, el famoso “si lo dice la máquina, será correcto”. Esto es exactamente lo contrario a la diligencia profesional reforzada que los jueces esperan de auditores, abogados y peritos.
Un despacho serio debería formar a sus equipos en un principio básico:
- Desconfianza razonable: la IA es rápida, pero necesita supervisión crítica.
- Preguntas obligadas ante cualquier output: ¿tiene sentido?, ¿encaja con el resto de la evidencia?, ¿qué no está viendo?
3.3. Compliance e IA: aliados obligatorios
En la mesa también se subrayó la sinergia entre Compliance y auditoría. No basta con que el algoritmo funcione; hay que demostrar que funciona bajo un marco de control interno sólido:
- Políticas internas de uso de IA (quién puede usar qué, para qué y con qué controles).
- Registros de uso: qué herramientas se han utilizado en cada trabajo, con qué configuración.
- Evaluaciones periódicas del desempeño del modelo.
Los departamentos de compliance de los despachos y de las empresas pasan a ser pieza clave en la automatización jurídica responsable.
4. Riesgo de “jurisprudencia fosilizada” y límites en la IA jurídica
En el Foro se abordó otro riesgo menos comentado pero muy real: el peligro de que la IA congele la interpretación del Derecho.
El magistrado del Tribunal Supremo Manuel Marchena lo ilustró con una idea muy gráfica: el algoritmo solo devuelve lo que conoce, lo que le han enseñado. Eso, aplicado a la jurisprudencia, implica:
«El algoritmo solo te va a dar lo que conoce. Creo que establece una lealtad a una jurisprudencia que podría generar situaciones injustas».
Para la automatización jurídica en despachos, este es un punto crítico:
- Muchas herramientas de investigación legal automatizada se entrenan con resoluciones pasadas.
- Si el profesional se limita a aceptar el “top 10” de sentencias sugeridas, desaparece el margen creativo para defender interpretaciones nuevas o matizadas.
¿Cómo evitar una justicia “congelada” por la IA?
- Usar la IA para orientarse, no para cerrar el análisis.
- Forzar en los protocolos internos que:
- Siempre se revise más allá de las primeras recomendaciones.
- Se documenten líneas alternativas de argumentación, incluso si el modelo no las propone de inicio.
- Combinar IA con experiencia sectorial: un algoritmo no conoce matices comerciales, regulatorios o sociopolíticos que sí ve un abogado senior.
La tecnología debe ampliar el horizonte del análisis, no empequeñecerlo.
5. El mensaje final para los auditores: quien no use IA saldrá del mercado
La otra cara de la moneda la puso Myriam Rebollo, subdirectora general del Instituto de Contabilidad y Auditoría de Cuentas:
«No podemos darle la espalda a la IA. El que no la use, se quedará probablemente fuera del mercado».
Esta frase resume la tensión en la que se encuentran hoy los auditores y, por extensión, los despachos de abogados y consultores que trabajan en automatización jurídica:
- Riesgo de usar IA mal → reclamaciones, pérdida de confianza, sanciones.
- Riesgo de no usar IA → ineficiencia, precios no competitivos, incapacidad para analizar grandes volúmenes de información.
La salida no es elegir entre IA sí o IA no. La salida es IA bien usada.
5.1. Qué significa “que el auditor entienda la IA”
Rebollo insistió en algo que me parece clave:
«Es fundamental que el auditor sepa y entienda a la IA».
No se trata de que el auditor programe modelos. Se trata de que pueda responder, sin temblar, a preguntas como:
- ¿Qué hace exactamente esta herramienta en mi proceso de trabajo?
- ¿De dónde salen los datos que utiliza?
- ¿Qué controles de calidad tiene?
- ¿En qué supuestos sé que puede fallar más?
En términos de estrategia de despacho, esto implica:
- Formar a socios y seniors en alfabetización algorítmica.
- Crear la figura de “traductores” entre negocio y tecnología (legal engineers, data lawyers, etc.).
- No comprar soluciones de IA como si fueran “cajas negras mágicas”.
5.2. Transparencia con el cliente y trazabilidad
Rebollo también puso el foco en dos exigencias que van a marcar la diferencia en el mercado:
- Transparencia en la obtención y uso de los datos.
- Claridad con el cliente sobre qué parte del trabajo está automatizada y cuál es la intervención humana.
Para captar y fidelizar clientes en 2026, los despachos que trabajen con IA en auditoría jurídica tendrán ventaja si ofrecen:
- Informes en los que se identifiquen las herramientas utilizadas.
- Apartados específicos sobre limitaciones del modelo.
- Protocolos claros en caso de hallazgos relevantes: quién revisa, quién decide, quién responde.
6. Cómo encaja todo esto en la automatización jurídica de tu despacho
La lección del IV Foro de Expertos Confilegal Auditores dialoga perfectamente con lo que estamos viendo en esta serie sobre IA en el Sector Legal: Automatización Jurídica:
- Los despachos que integran IA en revisión de contratos, due diligence, investigación legal o auditoría de cumplimiento están ganando velocidad y profundidad de análisis.
- Pero los que lo hacen sin un marco de gobernanza, control y responsabilidad están comprando un problema futuro.
Si tuviera que resumir en una hoja de ruta para 2026, sería esta:
- Diagnostica dónde estás usando (o quieres usar) IA en procesos de auditoría jurídica o revisión documental.
- Define riesgos: sesgos, calidad del dato, responsabilidad, transparencia, impacto en honorarios y expectativas del cliente.
- Crea políticas internas de uso de IA: herramientas autorizadas, procesos, niveles de revisión humana, registro de decisiones.
- Forma a tu equipo: no solo en usar la herramienta, sino en entenderla y cuestionarla.
- Comunica al cliente cómo trabajas: la confianza se construye explicando tu “sala de máquinas”, no ocultándola.
La automatización jurídica no va de sustituir abogados o auditores. Va de multiplicar su capacidad sin perder criterio profesional ni seguridad jurídica.
Y aquí está el punto clave que se repitió en Madrid: el algoritmo puede ayudarte a ver más, pero la firma seguirá siendo tuya. La ventaja competitiva estará en quien combine mejor tres cosas: buena tecnología, buen dato y mejores profesionales.