MENAC já usa IA para fiscalizar o RGPC. Programas de compliance de fachada deixam de passar. Veja como preparar a sua empresa para o escrutínio digital.

A notícia é simples e dura: em novembro de 2025, o MENAC abriu 11 processos de contraordenação por falhas na prevenção da corrupção. E, pela primeira vez, assumiu publicamente que está a usar inteligência artificial para analisar em segundos aquilo que antes demorava um dia inteiro de trabalho humano.
Para as empresas portuguesas – em especial seguradoras, financeiras e setores regulados – isto muda o jogo. A prevenção da corrupção deixou de ser um tema “para cumprir calendário” e passou a ser um assunto onde algoritmos vão cruzar dados, detetar incoerências e expor programas de compliance que existem apenas no papel.
Este artigo faz parte da série “Inteligência Artificial para Empresas Portuguesas” e foca um ponto crítico: como é que a IA, aliada ao MENAC, está a mudar a fiscalização e a forma como as organizações desenham, implementam e vivem os seus programas de compliance.
1. O que está a mudar: da prevenção “soft” à fiscalização digital
O ponto central é este: a fase pedagógica acabou e começou a fase sancionatória apoiada em IA.
Desde 2021, com o Regime Geral de Prevenção da Corrupção (RGPC), a prevenção deixou de ser uma recomendação e passou a ser uma obrigação legal. Muitas entidades criaram planos à pressa: planos de prevenção de riscos genéricos, códigos de conduta reciclados, formações pontuais. Serviu para mostrar “boa vontade”, mas pouco mais.
Agora o contexto é outro:
- O MENAC tem competência para fiscalizar cerca de 14 mil entidades obrigadas.
- Pode aplicar coimas até 44.891,81€ a pessoas coletivas.
- Usa ferramentas de IA para analisar rapidamente documentos submetidos na plataforma eletrónica.
Para grandes empresas, o valor da coima pode parecer limitado. Mas o impacto real está noutro lado:
- Risco reputacional, sobretudo em setores de confiança (banca, seguros, saúde, utilities).
- Impacto em contratação pública, onde o histórico de cumprimento e integridade começa a ser olhado com lupa.
- Pressão de supervisores e reguladores para demonstração efetiva de cultura ética.
A fiscalização “inteligente” deixa de depender apenas da equipa humana do MENAC. A IA permite priorizar quem merece ser inspecionado, com base em sinais objetivos de risco.
2. O fenómeno do window dressing: quando o compliance é só fachada
O termo internacional é claro: window dressing é quando as empresas montam uma montra bonita sem mudar o que está na loja.
No RGPC e na prática das empresas portuguesas, isto traduz-se em situações muito concretas:
- Planos de prevenção de riscos copiados entre entidades, mudando apenas o logótipo.
- Matriz de riscos genérica, sem refletir a realidade do negócio (por exemplo, tratar uma seguradora como se fosse uma pequena autarquia).
- Códigos de conduta extensos, mas que ninguém lê ou aplica.
- Formações feitas apenas para cumprir, com listas de presenças “arranjadas”.
- Canais de denúncia que existem, mas que ninguém confia em usar.
O problema? O window dressing não só não protege a organização, como agrava a sua responsabilidade. Quando há um incidente de corrupção ou fraude, um programa meramente formal é visto como falta de diligência séria.
Um programa de compliance fraco é pior do que nenhum: dá falsa sensação de segurança, mas não resiste a um inquérito sério.
Aqui entra um ponto relevante para a inteligência artificial: os sistemas do MENAC podem ser treinados para reconhecer sinais típicos de window dressing, como:
- Estruturas idênticas entre planos de entidades diferentes.
- Incongruências entre riscos declarados e dados públicos da organização.
- Falta de atualização de documentos ao longo dos anos.
Ou seja, aquilo que antes podia passar despercebido numa revisão manual começa agora a ser destacado automaticamente.
3. Como a IA está a ser usada na fiscalização do RGPC
A grande vantagem da IA para o MENAC é direta: capacidade de análise massiva, rápida e consistente.
Embora os detalhes técnicos não sejam públicos, um sistema típico deste tipo pode fazer, por exemplo:
3.1. Análise automática de documentos
A IA consegue:
- Ler e classificar Planos de Prevenção de Riscos, códigos de conduta, políticas de ofertas e hospitalidade, etc.
- Verificar se o plano contém, pelo menos, os elementos mínimos exigidos pelo RGPC.
- Avaliar a coerência entre riscos identificados, medidas propostas e a dimensão/atividade da entidade.
3.2. Detetar padrões suspeitos
Com o tempo, o sistema aprende a detetar padrões como:
- Linguagem excessivamente genérica.
- Repetição de trechos comuns a múltiplas entidades.
- Falta de ligação entre riscos específicos do setor (por exemplo, mediação de seguros, gestão de sinistros, contratação de prestadores) e as medidas de controlo.
3.3. Priorização de entidades de maior risco
A IA pode integrar dados de várias origens (setor, dimensão, histórico de incidentes públicos, participação em contratação pública) e gerar um ranking de risco.
Resultado prático: as entidades com maior probabilidade de incumprimento são as primeiras a ser fiscalizadas presencialmente.
Para as empresas portuguesas, isto tem uma consequência muito clara: já não é razoável esperar passar “entre os pingos da chuva”. Quem tem programas fracos vai ser mais facilmente identificado.
4. O que é um programa de compliance robusto na era da IA
A pergunta que muitos conselhos de administração e comissões de auditoria fazem é: “O que é que temos de ter para estar tranquilos quando o MENAC (e a IA) olharem para nós?”
A resposta não é comprar um modelo standard. Não há “copy-paste” que resista a uma fiscalização inteligente.
Um programa credível, hoje, precisa de cumprir quatro critérios:
4.1. Conformidade legal mínima… mas real
- Cumprir os requisitos do RGPC: plano de prevenção de riscos, canal de denúncia, código de conduta, formação, responsável pelo cumprimento normativo.
- Garantir que estes instrumentos estão aprovados, comunicados internamente e atualizados.
4.2. Proporcionalidade e ajustamento à realidade da entidade
Um grupo segurador com operações internacionais não pode ter o mesmo tipo de plano de uma pequena entidade local. É essencial:
- Mapear processos críticos (subscrição, sinistros, relações com mediadores, contratação de peritos, IT, etc.).
- Identificar pontos de contacto com o setor público e zonas clássicas de risco (patrocínios, ofertas, eventos, consultoria).
4.3. Integração de normas internacionais, sem as idolatrar
Normas como a ISO 37001 (anti-suborno) e a ISO 37301 (compliance) são boas referências. Mas não substituem o trabalho de mapeamento e personalização.
O que funciona melhor é usar estas normas como estrutura-base, adaptando:
- Matriz de riscos à realidade concreta da empresa.
- Procedimentos de due diligence a clientes, parceiros e fornecedores críticos.
- Mecanismos de monitorização contínua.
4.4. Cultura viva, não apenas documentos
Este é o ponto onde muitas organizações falham. A IA pode analisar papel, mas quem avalia a cultura são as pessoas – e é aí que a fiscalização presencial entra.
Alguns sinais de programa “vivo”:
- Formações frequentes e orientadas para casos reais do setor.
- Registo efetivo de dúvidas colocadas ao compliance e resposta documentada.
- Canais de denúncia com histórico de utilização e tratamento sério.
- Decisões de negócio (por exemplo, rejeitar um contrato duvidoso) documentadas com base em critérios de risco ético.
5. Como as empresas portuguesas podem usar a IA a seu favor
A ironia é esta: a mesma tecnologia que reforça a fiscalização pode e deve ser usada pelas empresas para reforçar o seu próprio compliance.
Na série “Inteligência Artificial para Empresas Portuguesas” temos insistido nisto: quem olhar para a IA apenas como uma ameaça vai ficar para trás. Neste tema também.
Algos exemplos práticos de uso interno de IA:
5.1. Apoio à elaboração e revisão de planos
Ferramentas de IA podem ajudar a:
- Fazer análise de risco inicial, com base em informação pública do setor e do mercado.
- Sugerir controlos e medidas de mitigação adequadas a cada tipo de risco.
- Rever coerência interna entre riscos, medidas, responsáveis e prazos.
Claro: isto não substitui a decisão humana, mas torna o trabalho mais rápido e consistente.
5.2. Monitorização contínua e alertas precoces
Combinando dados internos (transações, aprovações, exceções, contactos com o setor público) com modelos analíticos, é possível:
- Detetar padrões anómalos em aprovações de pagamentos, ofertas, patrocínios.
- Sinalizar áreas com ausência de rotação de fornecedores ou peritos.
- Identificar comportamentos de risco em determinados departamentos.
Nas seguradoras, por exemplo, a IA pode cruzar dados de sinistros, mediadores e prestadores para detetar esquemas de fraude ligados a corrupção ou conluio.
5.3. Formação personalizada e mensurável
Em vez de formações genéricas, empresas podem usar IA para:
- Adaptar conteúdos ao perfil de cada colaborador (função, risco, histórico de interações).
- Medir compreensão em tempo real com quizzes, cenários e simulações.
- Registar evidências objetivas de que a formação foi feita, compreendida e aplicada.
A melhor defesa perante o MENAC não é dizer “temos formação”, é mostrar “é assim que a formação mudou decisões reais dentro da empresa”.
6. Passos concretos para preparar o seu programa para o escrutínio digital
Se tivesse de sugerir um plano pragmático para os próximos 3 meses, seria este:
-
Auditar o programa atual
- Rever o Plano de Prevenção de Riscos e o código de conduta.
- Identificar partes genéricas, desatualizadas ou desalinhadas com o negócio atual.
-
Confrontar o plano com a realidade operacional
- Escolher 3–5 processos críticos (por exemplo, contratação pública, sinistros complexos, seleção de peritos, grandes patrocínios).
- Ver se os riscos reais desses processos estão refletidos no plano.
-
Reforçar a evidência documental
- Registar decisões relevantes tomadas por razões de integridade.
- Organizar provas de formação, comunicação interna, monitorização e resposta a denúncias.
-
Avaliar onde a IA pode ajudar internamente
- Usar IA para apoiar a revisão dos documentos e testar coerência.
- Implementar, mesmo que de forma piloto, modelos simples de deteção de padrões anómalos.
-
Trabalhar a cultura, não apenas o papel
- Envolver a gestão de topo com mensagens claras sobre tolerância zero.
- Criar momentos regulares (curtos, práticos) de discussão de dilemas éticos reais.
7. MENAC, IA e o futuro do compliance em Portugal
A frase do artigo original resume bem o momento: é hora de passar da formalidade para a substância, da norma para a cultura.
A IA está a acelerar essa transição. Obriga as organizações a abandonar o window dressing e a encarar o compliance como um sistema vivo, suportado em dados, tecnologia e, sobretudo, em decisões diárias coerentes.
Para as empresas portuguesas que acompanham esta série sobre Inteligência Artificial para Empresas, este é mais um recado claro: não basta usar IA para vender mais ou reduzir custos – é preciso usá-la também para ser mais íntegro, mais transparente e mais confiável.
Quem tratar o RGPC e o MENAC apenas como uma ameaça vai gastar energia a fugir do escrutínio. Quem os encarar como um “stress test” saudável vai construir organizações mais sólidas, mais preparadas para captar investimento, ganhar contratos e manter talento.
A questão, no final, é simples: se o seu programa de compliance fosse hoje analisado por um algoritmo e, amanhã, por uma equipa de fiscalização no terreno, resistia?