IA na banca: prevenir fraude com a experiência da saúde

IA no Setor Bancário Português: Inovação FinanceiraBy 3L3C

Bancos portugueses podem aprender com a saúde pública a usar IA para prevenir fraude, reforçar compliance e proteger clientes, de forma ética e eficiente.

inteligência artificialbanca portuguesadeteção de fraudecompliance financeiroinovação tecnológicaAI Actgestão de risco
Share:

IA, fraude e um aviso claro da saúde pública

Em 2024, os bancos portugueses reportaram perdas de vários milhões de euros ligadas a fraude digital e phishing. No mesmo período, o setor da saúde reforçou equipas e tecnologias para combater fraude, desperdício e abuso nos sistemas públicos. Dois mundos diferentes, o mesmo problema: como usar inteligência artificial para detetar e prevenir fraude sem perder a confiança das pessoas.

O seminário intersectorial promovido pela SPMS sobre prevenção da fraude e desafios da IA é um sinal claro: saúde, finanças, justiça e outros setores começam a trabalhar em conjunto. E a banca portuguesa não pode ficar de fora. Quem liderar agora a integração de IA responsável em deteção de fraude bancária, compliance e proteção do cliente vai ganhar vantagem competitiva nos próximos anos.

Neste artigo, integrado na série “IA no Setor Bancário Português: Inovação Financeira”, pego no ponto de partida deste seminário da saúde e mostro como as mesmas lições se aplicam diretamente aos bancos em Portugal: do desenho de modelos de scoring e antifraude até à governação ética da IA.


O que a saúde pública já aprendeu sobre fraude e IA

A principal lição do setor da saúde é simples: fraude é um problema técnico, mas também profundamente humano e organizacional.

No caso do Serviço Nacional de Saúde, a SPMS tem trabalhado com vários ministérios para cruzar dados, detetar padrões suspeitos e reduzir desperdício. Este trabalho mostra três pontos que a banca devia adotar já:

  1. Visão intersectorial
    Fraude raramente fica confinada a um único serviço. Na saúde, envolve prescrições, comparticipações, fornecedores. Na banca, cruza contas, cartões, plataformas de pagamento, fintechs e até telecomunicações.

  2. Dados dispersos, risco elevado
    Tal como hospitais, clínicas e farmácias gerem dados fragmentados, muitos bancos ainda têm sistemas de core banking, cartões e canais digitais a funcionar em “ilhas”. Os esquemas de fraude aproveitam exatamente essas brechas.

  3. IA sem governação é um risco
    A SPMS discute não só algoritmos, mas também ética, auditoria, transparência e proteção de dados. A banca precisa de uma abordagem semelhante, sobretudo com o AI Act europeu a entrar em vigor.

A experiência da saúde mostra que combater fraude com IA exige alinhamento entre tecnologia, regulação e cultura organizacional — não apenas comprar mais software.


Como a IA pode reforçar a deteção de fraude na banca portuguesa

A aplicação mais óbvia – e mais urgente – de IA na banca é a deteção e prevenção de fraude. E aqui a banca pode aprender diretamente com o modelo colaborativo que a saúde está a construir.

1. Modelos de deteção em tempo real

Os bancos já usam regras simples há anos (ex.: bloquear transações acima de certo valor num país de risco). O problema é que os fraudadores adaptam-se rápido. Modelos de machine learning e deep learning conseguem ir muito mais longe:

  • Analisar o comportamento típico do cliente (montantes, horários, geolocalização, dispositivos)
  • Sinalizar padrões anómalos em milissegundos
  • Atribuir uma pontuação de risco a cada transação

Na prática:

  • Uma transferência feita às 03h00, para um IBAN nunca usado, a partir de um dispositivo desconhecido, pode ser automaticamente marcada para validação adicional (Push no app, chamada, biometria).
  • Cartões virtuais com gastos seguidos em sites de baixo histórico de confiança podem levar a uma redução automática de limites temporários.

2. Modelos híbridos: regras + IA

A saúde aprendeu que depender só de regras fixas ignora a complexidade do comportamento humano, mas depender apenas de modelos “caixa negra” também é perigoso. O mesmo se aplica aos bancos.

O caminho mais sólido é combinar:

  • Regras determinísticas claras (ex.: bloqueio automático em países sancionados)
  • Modelos de IA que ajustam o risco com base em contexto e histórico

Este modelo híbrido reduz falsos positivos (clientes legítimos bloqueados sem razão) e melhora a deteção de esquemas sofisticados, como fraude por engenharia social, onde é o próprio cliente, pressionado, que autoriza a operação.

3. IA explicável para equipas de risco

Uma das preocupações centrais do seminário da SPMS é a explicabilidade: como justificar uma decisão tomada por um algoritmo, perante reguladores ou tribunais?

Na banca, isto é crítico em três frentes:

  • Compliance (auditorias internas e externas)
  • Proteção do consumidor (explicar porque uma operação foi bloqueada ou um crédito recusado)
  • Supervisão (Banco de Portugal, CMVM, autoridades europeias)

Modelos de IA explicável (XAI) permitem, por exemplo:

  • Mostrar às equipas de risco quais as variáveis que mais contribuíram para classificar uma transação como suspeita
  • Gerar relatórios automáticos que fundamentam decisões em linguagem compreensível

Sem explicabilidade, a IA transforma-se num risco jurídico. Com explicabilidade, torna-se uma ferramenta robusta de compliance.


Da saúde à banca: uma estratégia intersectorial antifraude

O seminário intersectorial da SPMS traz uma ideia que a banca devia copiar sem pudor: cooperar mais, competir menos, quando o tema é fraude.

1. Partilha de sinais de alerta entre instituições

Fraude em pagamentos instantâneos, por exemplo, raramente fica num único banco. Os esquemas circulam por várias instituições em minutos.

Uma abordagem inspirada no setor da saúde podia incluir:

  • Plataformas seguras para partilha de padrões anónimos de fraude entre bancos em Portugal
  • Modelos de IA treinados com dados agregados e anonimizados para melhorar a deteção global
  • Colaboração estruturada com telecomunicações para sinalizar SIM swapping, spoofing de números e phishing por SMS

Quanto mais rica for a base de treino, mais eficaz será a IA antifraude — e isso só se consegue com cooperação.

2. Envolvimento de reguladores desde o início

Na saúde, a discussão é feita com ministérios, reguladores de proteção de dados, ordens profissionais. A banca devia replicar este modelo:

  • Envolver Banco de Portugal e CNPD nos projetos estruturantes de IA
  • Discutir previamente modelos de scoring, segmentação de risco e mecanismos de explicação
  • Definir linhas vermelhas éticas: o que nunca será usado para decisões automatizadas (por exemplo, dados sensíveis indiretos)

Quando o regulador participa desde o desenho da solução, a probabilidade de um “não” à posteriori reduz-se drasticamente.

3. Campanhas conjuntas de educação dos clientes

Tanto na saúde como na banca, a fraude por engenharia social continua a ser o elo mais fraco. Pode existir a melhor IA do mundo; se o cliente partilha códigos de autorização, o sistema colapsa.

Aqui, faz falta uma abordagem coordenada:

  • Mensagens consistentes entre bancos, PSPs, reguladores e até entidades públicas
  • Alertas claros nas apps bancárias com exemplos reais de esquemas recentes
  • Conteúdo educativo simples: como reconhecer chamadas falsas, sites clonados, emails fraudulentos

A melhor IA antifraude trabalha em conjunto com clientes bem informados, não em substituição deles.


Desafios éticos e regulatórios: o que os bancos não podem ignorar

O foco da SPMS nos “desafios da IA” devia soar como um alerta direto para a banca. Não é só questão de tecnologia funcionar; é questão de funcionar bem, de forma justa e legal.

1. Viés algorítmico em scoring e deteção de fraude

Se os modelos forem treinados com dados históricos enviesados, vão replicar e amplificar esses enviesamentos. Exemplos preocupantes na banca:

  • Segmentos de clientes sistematicamente com mais false positives em alertas de fraude
  • Comunidades com mais recusas de crédito sem justificação objetiva clara

Medidas práticas:

  • Auditorias periódicas de viés aos modelos
  • Métricas específicas de equidade (fairness) incorporadas nos KPIs de risco
  • Equipas multidisciplinares (dados, risco, jurídico, ética) a validar mudanças relevantes nos modelos

2. Proteção de dados e AI Act

Tal como na saúde, os bancos trabalham com dados altamente sensíveis. O cruzamento entre RGPD e AI Act vai ser cada vez mais exigente:

  • Necessidade de registos de treino: que dados foram usados, com que finalidade, durante quanto tempo
  • Obrigações de documentação para sistemas de alto risco (por exemplo, IA que influencia decisões de crédito)
  • Requisitos de supervisão humana significativa sobre decisões automatizadas

Os bancos que anteciparem estas regras com programas internos de governação da IA (políticas, comités, registos, auditorias) vão estar muito melhor posicionados quando a fiscalização apertar.

3. Confiança do público

Na saúde, a confiança perdida é difícil de recuperar. Na banca, acontece o mesmo. Um escândalo de uso abusivo de dados ou um erro grave de IA pode corroer anos de reputação.

Estratégia recomendável:

  • Comunicar de forma simples o que é feito com dados e IA
  • Dar aos clientes controlo claro sobre preferências de personalização e monitorização
  • Oferecer canais rápidos para contestar decisões automatizadas (bloqueios, recusas de crédito, alteração de limites)

Transparência não é detalhe de marketing; é componente essencial da proposta de valor de qualquer banco português que queira ser visto como inovador e responsável.


Como começar: roteiro prático para bancos em Portugal

Falar de IA e fraude é fácil; executar de forma estruturada é outra história. Com base nas lições da saúde e nas exigências atuais do mercado financeiro, o caminho mais realista passa por quatro passos.

1. Diagnóstico: onde estão hoje os riscos

  • Mapear processos de deteção de fraude atuais (cartões, transferências, canais digitais)
  • Identificar pontos com mais falsos positivos e lacunas de cobertura
  • Rever integrações com PSPs, fintechs e outros parceiros

O objetivo é simples: saber onde a IA acrescenta valor e onde ainda há trabalho básico de dados a fazer.

2. Fundos de dados e qualidade

Antes do “modelo de IA incrível”, vem o incómodo trabalho de:

  • Consolidar dados de múltiplos sistemas legados
  • Definir dicionários de dados comuns
  • Implementar governança mínima: donos de dados, políticas de acesso, logs

Na prática, quem ignora esta fase acaba com projetos de IA teóricos, apresentações bonitas… e pouca redução efetiva de fraude.

3. Projetos-piloto bem delimitados

Começar com pilotos controlados reduz risco e acelera aprendizagem. Alguns exemplos concretos:

  • Modelo de risco de transações instantâneas acima de certo valor
  • IA antifraude focada em e-commerce e pagamentos internacionais
  • Sistema de pontuação de risco de login (localização, dispositivo, histórico de ataques)

Cada piloto deve ter:

  • Indicadores de sucesso claros (fraude evitada, redução de falsos positivos, tempo de análise manual poupado)
  • Equipa definida (dados, TI, risco, jurídico)
  • Plano de escalabilidade se os resultados forem positivos

4. Estrutura de governação da IA

Finalmente, os bancos precisam de uma arquitetura de decisão para IA, tal como já têm para risco de crédito ou liquidez:

  • Comité de IA com representação de risco, jurídico, compliance, tecnologia e negócio
  • Processo formal para aprovar, rever e descontinuar modelos
  • Registos de versões de modelos, parâmetros, datasets e resultados de auditoria

Quem montar esta estrutura agora vai ter muito menos dor de cabeça quando o enquadramento regulatório apertar — e quando a concorrência acelerar.


Fraude, IA e o futuro da banca portuguesa

A mensagem que vem da saúde é clara: combater fraude com IA é um esforço coletivo, intersectorial e contínuo. O seminário da SPMS mostra que o Estado português já percebeu a urgência de alinhar tecnologia, ética e regulação.

A banca tem aqui uma oportunidade rara de se posicionar como parceiro estratégico nesta agenda, não apenas como setor regulado que “cumpre regras”. Os bancos que integrarem IA antifraude robusta, colaborarem entre si e com o setor público, e assumirem uma postura transparente perante os clientes vão ganhar três coisas ao mesmo tempo: menos perdas, mais confiança e mais espaço para inovar noutros serviços, como aconselhamento financeiro automatizado e scoring de crédito inteligente.

Se está a desenhar a estratégia de IA do seu banco para 2025–2027, este é o momento de colocar prevenção de fraude com IA responsável no topo da lista. A pergunta já não é se a banca portuguesa vai seguir este caminho, mas qual das instituições vai liderar a mudança.

🇵🇹 IA na banca: prevenir fraude com a experiência da saúde - Portugal | 3L3C