La IA ya es clave en auditoría y despachos españoles. Descubre riesgos, buenas prácticas y una hoja de ruta realista para usarla sin perder control ni responsabilidad.
IA y auditoría jurídica: el meteorito ya ha caído
«El que no use IA se quedará probablemente fuera del mercado». La frase no es de un tecnólogo de Silicon Valley, sino de Myriam Rebollo Díaz, subdirectora general del Instituto de Contabilidad y Auditoría de Cuentas, durante el IV Foro de Expertos Confilegal Auditores celebrado el 11/12/2025 en Madrid.
Este foro, con magistrados del Tribunal Supremo, expertos en auditoría interna, Compliance y analítica de datos, dejó clara una idea: la auditoría y la práctica jurídica española ya no se entienden sin inteligencia artificial, pero la responsabilidad sigue siendo humana.
En esta entrega de la serie «IA en el Sector Legal: Automatización Jurídica» voy a aterrizar los mensajes clave de ese foro y convertirlos en algo muy práctico para ti: cómo debe posicionarse un despacho o un departamento jurídico ante la IA en auditoría, qué riesgos legales hay y qué pasos concretos puedes dar desde hoy.
Del juicio profesional al juicio algorítmico: qué cambia de verdad
La principal transformación que trae la IA a la auditoría jurídica es sencilla de describir: pasamos de decisiones basadas solo en juicio profesional a decisiones apoyadas en modelos algorítmicos.
Durante el foro, Javier Campelo (BDO) lo resumió con una idea potente: el dato ya no solo explica o predice, también genera resultados nuevos. Eso, en auditoría y en despachos, tiene varias consecuencias directas:
- Se analizan volúmenes masivos de contratos, asientos o expedientes en minutos.
- Se detectan patrones de riesgo que un equipo humano tardaría semanas en ver.
- Se automatizan informes estándar y revisiones preliminares con asistentes de IA.
La realidad es que la IA no sustituye el juicio profesional, pero lo desplaza de sitio:
- Antes: el auditor dedicaba la mayor parte del tiempo a recopilar y revisar datos.
- Ahora: la máquina hace gran parte de esa revisión, y el profesional se centra en interpretar, cuestionar y decidir.
El error que muchos despachos están cometiendo es justo el contrario: tratan a la IA como si fuese un “oráculo infalible”. Y aquí el foro fue muy claro.
«Lo más peligroso desde un punto de vista jurídico es que el uso de IA haga que te relajes en cuanto a la información que produce» – Eloy Velasco, magistrado de la Audiencia Nacional.
Un despacho moderno debe asumir que el juicio algorítmico es una entrada, no una conclusión. Si el modelo se equivoca, la responsabilidad es de quien firma el informe o la opinión jurídica.
Riesgos jurídicos clave de usar IA en auditorías y despachos
La mesa «Gobernanza, control y responsabilidad en la auditoría del futuro» dejó un mensaje nítido: la responsabilidad no se delega en el algoritmo. En la práctica, esto se traduce en varios focos de riesgo que cualquier firma debe gestionar.
1. Sesgos y calidad del dato
Campelo insistió en un punto que muchos olvidan:
«Según cómo entrenemos a la IA, tendrá más o menos sesgos. Cuidar el algoritmo es fundamental para que funcione bien».
En términos jurídicos, esto significa:
- Un modelo entrenado con datos incompletos puede discriminar o sobrevalorar ciertos riesgos.
- Una IA que se nutre de jurisprudencia desactualizada puede llevar a decisiones técnicamente erróneas.
- Un asistente que genera borradores de informes puede introducir afirmaciones falsas pero plausibles.
En un contexto de auditoría legal o financiera, un sesgo puede acabar en:
- Opiniones de auditoría incorrectas.
- Evaluaciones de Compliance defectuosas.
- Riesgos de responsabilidad civil, penal o disciplinaria.
2. «Fosilización» de la jurisprudencia
El magistrado del Supremo Manuel Marchena alertó de otro efecto menos comentado: el riesgo de que la IA congele la jurisprudencia.
Si un modelo se alimenta solo de resoluciones pasadas y tiende a proponer siempre las mismas soluciones, el sistema jurídico se hace:
- Menos flexible.
- Menos creativo en la interpretación.
- Menos sensible a nuevos contextos sociales y tecnológicos.
Para la automatización jurídica esto es clave: si tu despacho solo replica lo que hizo el juzgado en 2017, acabará dando consejos poco ajustados a la realidad de 2025 y en adelante.
3. ¿Quién responde por una auditoría hecha con IA?
Aquí no hay matices: hoy por hoy, responde la persona o la firma que firma el trabajo, haya o no usado IA.
- Si un informe de auditoría contiene errores porque el modelo clasificó mal ciertos asientos, responde la firma.
- Si un abogado presenta un escrito basado en un borrador de IA con citas inexistentes, responde el abogado.
La IA es una herramienta; en términos jurídicos, no desplaza la autoría ni la culpa. Y esto, en automatización jurídica, obliga a diseñar procesos donde:
- Siempre haya revisión humana final.
- Quede claro cuándo se usó IA, con qué fin y bajo qué controles.
Gobernanza de la IA: cómo deben organizarse despachos y auditores
Si la responsabilidad sigue siendo humana, la única salida sensata es organizar la IA con criterios de gobernanza y Compliance, igual que se organiza la prevención de blanqueo o la protección de datos.
1. Políticas internas claras sobre IA
Un despacho o firma de auditoría que quiera usar IA de forma seria necesita, como mínimo:
- Política de uso de IA: qué herramientas se pueden usar, para qué tareas y con qué restricciones.
- Criterios de confidencialidad: qué información de cliente no puede introducirse nunca en sistemas externos.
- Normas de revisión: qué tipo de salida de IA exige revisión al 100 % y cuál se puede usar como referencia sin citar.
En muchos clientes he visto que basta un documento de 5–6 páginas, revisado por el área de privacidad y por el socio responsable de calidad, para ordenar el caos inicial.
2. Supervisión humana y trazabilidad
El foro insistió en una idea que comparto por completo: humanos y algoritmos deben estar bajo supervisión. Eso implica:
- Registrar quién ha usado IA en cada proyecto.
- Documentar mínimamente qué se generó con IA (borradores, resúmenes, análisis de riesgos).
- Conservar esa trazabilidad por si surge un conflicto o una revisión regulatoria.
En automatización jurídica, un buen enfoque es tratar la IA como un miembro más del equipo: tiene tareas asignadas, produce entregables, pero alguien senior revisa y firma.
3. Formación específica del auditor y del abogado
Myriam Rebollo fue muy directa:
«Es fundamental que el auditor sepa y entienda a la IA».
Trasladado a tu organización, esto quiere decir:
- No basta con un webinar genérico sobre ChatGPT.
- Los equipos deben entender limitaciones, alucinaciones, sesgos, privacidad y seguridad de estas herramientas.
- Los socios necesitan una capa extra: riesgo regulatorio, responsabilidad profesional y estrategia de negocio.
Un plan razonable para 2026 podría ser:
- Formación base para todo el despacho en IA generativa aplicada al trabajo jurídico.
- Talleres específicos por área: auditoría interna, fiscal, procesal, mercantil.
- Actualización anual vinculada al Reglamento de IA de la UE y a la evolución de la Abogacía española.
Aplicaciones prácticas de IA en auditoría y automatización jurídica
Aterrizando todo lo anterior, ¿dónde aporta más valor la IA hoy en un entorno de auditoría y despacho español?
1. Revisión masiva de contratos y documentación
Para un auditor o un abogado, este uso es ya casi obligatorio:
- Identificar cláusulas de riesgo en centenares de contratos.
- Revisar coherencia interna de grandes paquetes documentales.
- Detectar anomalías frente a modelos estándar (precios, vencimientos, garantías).
En un contexto de due diligence o de auditoría de cumplimiento, una buena combinación es:
- Herramienta de extracción automática de campos clave.
- Modelo de IA que marque contratos “a revisar” por encima de un umbral de riesgo.
- Revisión humana centrada solo en ese subconjunto.
Resultado típico que estoy viendo en el mercado español: reducción de tiempos del 40–60 % en la fase de cribado, con el mismo nivel de control jurídico.
2. Auditoría continua basada en datos
La frase de Campelo, «la evolución del dato va a cambiar el mundo», encaja muy bien con la auditoría continua:
- Sistemas que analizan transacciones en tiempo casi real.
- Alertas automáticas cuando ciertos patrones se salen de la norma.
- Paneles de riesgo sobre los que el auditor aplica su criterio profesional.
En el ámbito de la automatización jurídica, esto tiene un impacto fuerte en:
- Compliance penal (detección de patrones anómalos relacionados con fraude o corrupción).
- Prevención de blanqueo.
- Control interno de grandes grupos empresariales.
3. Asistentes jurídicos internos
Cada vez más despachos españoles están desplegando asistentes internos entrenados con:
- Plantillas propias.
- Manuales de procedimiento.
- Criterios internos de firma.
Usos típicos:
- Preparar borradores de informes de auditoría legal.
- Sugerir estructuras de dictámenes o notas internas.
- Resumir cambios normativos y resoluciones relevantes.
El valor no está en que el asistente “sepa derecho” mejor que el equipo, sino en que acelera el trabajo mecánico y libera horas para el análisis fino y la relación con el cliente.
Cómo empezar en serio: hoja de ruta para 2026
Lo que se escuchó en el Foro de Expertos Confilegal es muy claro: no usar IA ya no es una opción competitiva. La pregunta real es cómo usarla sin comprometer la responsabilidad profesional.
Si tuviera que proponer una hoja de ruta sencilla para un despacho o una firma de auditoría española, sería esta:
-
Diagnóstico rápido (1–2 semanas)
- ¿Qué tareas repetitivas consumen más horas?
- ¿Qué partes de auditoría o revisión jurídica son más mecánicas?
- ¿Qué herramientas de IA se usan ya “por libre” en el equipo?
-
Definir política de uso de IA (3–4 semanas)
- Aprobar normas internas básicas.
- Establecer criterios de confidencialidad y revisión.
- Nombrar un responsable interno de IA (no tiene que ser IT; puede ser un socio con sensibilidad tecnológica).
-
Proyecto piloto (2–3 meses)
- Elegir un área concreta: auditoría interna, due diligence, revisión de contratos estándar.
- Medir tiempos antes y después.
- Documentar riesgos detectados y cómo se mitigan.
-
Escalar y formar (a lo largo de 2026)
- Extender el uso a otras áreas con resultados medibles.
- Formar de forma diferenciada a juniors, seniors y socios.
- Revisar la política de IA conforme cambie el marco regulatorio.
Este enfoque encaja con el mensaje central de la serie «IA en el Sector Legal: Automatización Jurídica»: no se trata de usar tecnología “porque toca”, sino de rediseñar procesos jurídicos y de auditoría con cabeza, manteniendo el control sobre la responsabilidad y la ética profesional.
Un sector en transformación, pero con la responsabilidad intacta
Del Hotel Mandarín Oriental Ritz a cualquier despacho de tamaño medio en España hay un hilo común: la IA ya está en la mesa de los socios. Durante el foro se habló de meteoritos, de algoritmos que conocen a las personas mejor que ellas mismas y de jurisprudencia fosilizada, pero el mensaje final fue muy terrenal:
- El mercado va a premiar a quien sepa usar IA con criterio.
- El regulador va a mirar con lupa quién sigue firmando sin entender qué hay detrás del algoritmo.
- Los clientes van a exigir eficiencia sin renunciar a seguridad jurídica.
Si tu despacho aún ve la IA como una curiosidad o un riesgo que es mejor evitar, la realidad es otra: la verdadera amenaza no es la IA, sino seguir trabajando como en 2015 mientras tu competencia automatiza 40 % de sus tareas jurídicas repetitivas.
La buena noticia es que el camino está bastante claro: gobernanza, formación, transparencia y supervisión humana. El juicio profesional no desaparece; se vuelve más valioso, porque es el último filtro entre el algoritmo y la firma que estampas debajo de un informe.
La pregunta para 2026 no será si usas IA, sino qué tipo de despacho quieres ser: uno que controla sus algoritmos o uno que firma a ciegas lo que le propone la máquina.