IA na saúde: integridade, regulação e menos fraude

IA na Saúde em Portugal: Inovação ClínicaBy 3L3C

A IA está a transformar o SNS. Sem uma estratégia séria de prevenção da fraude e da corrupção, a inovação clínica perde credibilidade e impacto.

inteligência artificial em saúdefraude e corrupção na saúderegulação de IASNS Portugalinovação clínicagovernança de dadoscompliance em saúde
Share:

Featured image for IA na saúde: integridade, regulação e menos fraude

IA na saúde portuguesa: inovação só funciona com confiança

Um dado simples mostra o tamanho do desafio: a OCDE estima que entre 3% e 10% da despesa em saúde, nos sistemas públicos europeus, pode ser perdida em desperdício, fraude ou corrupção. Num SNS pressionado por listas de espera, falta de profissionais e orçamentos apertados, cada euro desviado faz falta a um doente em concreto.

Ao mesmo tempo, 2025 é o ano em que a inteligência artificial na saúde em Portugal deixa de ser piloto e passa a operação: triagem no SNS 24, apoio ao diagnóstico por imagem, priorização de listas cirúrgicas, gestão de camas hospitalares, tudo começa a depender de modelos algorítmicos. Isto é excelente para eficiência clínica, mas levanta uma pergunta direta: como garantir integridade, transparência e controlo de fraude num sistema cada vez mais automatizado?

É precisamente este o foco do seminário da SPMS de 04/12/2025 – “Visão integradora da prevenção da fraude e da corrupção no setor da Saúde e desafios de inovação regulatória na inteligência artificial”. Neste artigo, enquadro o evento na série “IA na Saúde em Portugal: Inovação Clínica” e transformo o tema em algo muito prático: o que está em jogo, que riscos existem e que passos concretos cada organização de saúde pode dar.


Porque é que falar de fraude e IA no SNS não é um luxo, é uma necessidade

O ponto central é simples: quanto mais digital for o SNS, maior é a superfície de risco – mas também maior é a capacidade de controlo inteligente.

Fraude e corrupção na saúde não são apenas “malas de dinheiro” ou esquemas mediáticos. No contexto português, podem assumir muitas formas mais discretas:

  • faturação indevida ou duplicada;
  • prescrições desnecessárias ou viciadas por interesses comerciais;
  • manipulação de listas de espera ou referenciações;
  • favorecimento em contratos de tecnologia, consumíveis ou serviços;
  • uso abusivo de dados clínicos para fins não autorizados.

Quando entra IA na equação, aparecem riscos adicionais:

  • Modelos enviesados que priorizam certos doentes de forma injusta;
  • Recomendações “caixa negra” difíceis de auditar;
  • Dependência excessiva de fornecedores externos, com pouca transparência sobre dados e algoritmos;
  • Automatização de decisões financeiras (faturação, scoring de risco, autorizações) que pode esconder comportamentos oportunistas.

A grande vantagem é que a própria IA pode ser usada como ferramenta de integridade: deteção de padrões anómalos na faturação, cruzamento massivo de dados de prescrição, identificação de comportamentos atípicos em compras públicas ou em fluxos clínicos. Mas isto só funciona se existir um enquadramento regulatório robusto e uma cultura de ética digital dentro das instituições.


O que está em cima da mesa no seminário da SPMS

O seminário de 04/12/2025 insere‑se na comemoração do Dia Internacional Contra a Corrupção (09/12) e junta especialistas de vários setores da Administração Pública. O foco é muito específico: prevenção da fraude e da corrupção no setor da saúde, articulada com os desafios da inovação regulatória em IA.

Objetivos centrais do encontro

A partir do programa divulgado pela SPMS, é possível ler o seminário em três eixos práticos:

  1. Alinhar o setor da saúde com o Regime Geral da Prevenção da Corrupção (RGPC), traduzindo conceitos jurídicos em medidas concretas para hospitais, ACES, unidades locais de saúde e organismos centrais.
  2. Discutir modelos regulatórios para IA em saúde, assegurando que a adoção de tecnologias de apoio clínico e de gestão não abre novas janelas para abuso.
  3. Partilhar boas práticas e casos reais de prevenção, deteção e resposta a riscos de integridade, incluindo o papel da SPMS como operador central de sistemas.

O público‑alvo é claro: dirigentes do SNS, equipas de compliance, juristas, responsáveis de sistemas de informação, clínicos com funções de gestão, técnicos de faturação e finanças, entre outros profissionais que já hoje tomam decisões críticas em contexto de digitalização e IA.


IA na saúde e prevenção da fraude: onde estão os riscos reais?

A melhor forma de ligar este seminário à prática diária das unidades de saúde é olhar para casos concretos onde a IA e a digitalização podem criar vulnerabilidades – ou ser parte da solução.

1. Faturação hospitalar e algoritmos de validação

Muitos hospitais e entidades do SNS já recorrem a mecanismos automáticos para conferência e análise de faturação. Nos próximos anos, é expectável uma migração para modelos de IA que aprendem com padrões históricos.

Risco:

  • Se o modelo for treinado com dados já “contaminados” por práticas duvidosas, normaliza e perpetua esses padrões.
  • Um algoritmo mal auditado pode ser ajustado de forma a sistematicamente aprovar certos tipos de atos ou prestadores.

Boa prática:

  • Uso de modelos explicáveis (XAI) e dashboards de auditoria onde cada decisão de aprovação/rejeição é justificável;
  • Amostragens regulares com análise humana de decisões automáticas;
  • Segregação clara de funções: quem treina o modelo não é quem aprova pagamentos.

2. Prescrição eletrónica e recomendação algorítmica

Com a prescrição eletrónica e os sistemas de apoio à decisão clínica, é tentador introduzir recomendações de fármacos guiadas por IA, com base em guidelines e histórico de eficácia.

Risco:

  • Influências comerciais mascaradas de “otimização terapêutica”;
  • Recomendação sistemática de medicamentos mais caros, sem benefício clínico proporcional.

Boa prática:

  • Transparência sobre fontes de informação usadas para treinar o sistema;
  • Revisão por comissões de farmácia e terapêutica independentes;
  • Relatórios periódicos que cruzam decisões do sistema com padrões de prescrição e custo por doente.

3. Gestão de listas de espera com modelos preditivos

A IA é particularmente útil para priorizar cirurgias, exames e consultas, estimando risco clínico, probabilidade de não comparência e impacto na qualidade de vida.

Risco:

  • Algoritmos que possam ser “ajustados” para favorecer grupos, regiões ou instituições;
  • Falta de critérios transparentes que permita ao doente compreender a sua posição na lista.

Boa prática:

  • Publicação dos critérios de priorização em linguagem clara;
  • Monitorização independente de desvios sistemáticos por grupo socioeconómico, região ou prestador;
  • Canal simples para queixas e revisão de decisões de prioridade.

O que o RGPC e a regulação de IA exigem às unidades de saúde

O Regime Geral da Prevenção da Corrupção não é apenas um diploma “para cumprir”. Para unidades de saúde que estão a modernizar sistemas clínicos, administrativos e financeiros com IA, o RGPC funciona quase como um guião de projeto.

Componentes obrigatórios que tocam diretamente na IA

Para quem gere hospitais, ACES ou ULS, há quatro pontos do RGPC que, na prática, se cruzam de forma direta com a transformação digital:

  1. Plano de Prevenção de Riscos de Corrupção e Infrações Conexas (PPR)
    Cada novo sistema de IA em saúde deve ser analisado à lupa: que riscos de fraude, favorecimento ou conflito de interesses introduz? Que controlos mitigadores vão ser implementados?

  2. Códigos de conduta e ética digital
    Já não chega ter um código de conduta genérico. As organizações precisam de normas específicas para uso de dados e IA: quem pode aceder a dados de treino, como se lida com enviesamentos, que limites existem para a automação de decisões clínicas e financeiras.

  3. Canais de denúncia seguros e efetivos
    Em contexto digital, denúncias podem incluir alertas sobre manipulação de sistemas, acessos não autorizados, uso abusivo de dados ou pressões para alterar parâmetros de modelos.

  4. Formação contínua
    Não é realista esperar que clínicos, administrativos ou gestores compreendam riscos de IA “por osmose”. Programas formais, como o seminário da SPMS, são essenciais para criar linguagem comum entre TI, jurídico, compliance e direção clínica.


Como preparar a sua organização para IA com integridade: um plano em 5 passos

Quem trabalha no SNS ou em organizações parceiras não precisa de esperar por grandes reformas para agir. Há um roteiro simples que tenho visto funcionar melhor em instituições que estão a avançar de forma responsável na IA em saúde.

1. Mapear onde já existe automatização e onde entra IA

Antes de mais, é preciso saber onde a casa já é digital:

  • Sistemas de conferência de faturação;
  • Ferramentas de apoio ao diagnóstico (imagem, laboratório, triagem);
  • Plataformas de gestão de camas, blocos operatórios e urgência;
  • Algoritmos de priorização de listas de espera;
  • Chatbots ou triagem automatizada (por exemplo, em telemedicina e SNS 24).

Para cada sistema, pergunte: há componentes de IA? Em que decisões tocam? Quem as supervisiona?

2. Ligar o PPR à estratégia de IA

Muitas instituições fizeram o Plano de Prevenção de Riscos como um exercício isolado. A partir de 2025, faz mais sentido atualizar o PPR para refletir explicitamente projetos de IA:

  • identificar riscos de integridade associados a cada projeto digital;
  • definir controlos específicos (auditorias algorítmicas, logs, dupla validação humana);
  • estabelecer indicadores de monitorização.

3. Criar um comité interno de ética e IA na saúde

Funciona melhor quando não é apenas jurídico ou apenas TI. O ideal é um grupo multidisciplinar com:

  • direção clínica;
  • sistemas de informação;
  • jurídico/compliance;
  • enfermagem e outras profissões de saúde;
  • representação da administração.

Este comité avalia novos projetos, acompanha implementação e revê incidentes.

4. Exigir transparência a fornecedores de tecnologia

Para quem compra soluções de IA na saúde, sobretudo em contexto público, há mensagens que têm de ser claras nos cadernos de encargos e contratos:

  • explicabilidade mínima das decisões do sistema;
  • acesso a logs de decisão e dados de auditoria;
  • cláusulas sobre governança de dados, segurança e testes de enviesamento;
  • possibilidade de auditoria independente.

5. Investir em literacia de IA para profissionais de saúde

A melhor regulação formal falha se as pessoas no terreno não perceberem o que um sistema faz. Programas de formação – como os promovidos pela Academia SPMS – devem incluir:

  • noções básicas de como funcionam modelos de IA;
  • riscos típicos de enviesamento, erro e manipulação;
  • como interpretar alertas e recomendações algorítmicas;
  • quando é obrigatório “parar e pedir revisão humana”.

Onde este seminário encaixa na série “IA na Saúde em Portugal: Inovação Clínica”

Nos restantes conteúdos desta série temos falado de diagnóstico por imagem, medicina personalizada, telemedicina e gestão hospitalar com IA. Tudo isto tem um denominador comum: dependem de dados fiáveis e de confiança dos profissionais e dos cidadãos.

O seminário da SPMS sobre prevenção da fraude e corrupção e inovação regulatória na IA é o lado menos glamoroso, mas absolutamente essencial desta história. Sem mecanismos claros de integridade:

  • a adoção de soluções de IA em clínicas e hospitais abranda;
  • aumenta o risco de mediatização negativa quando algo corre mal;
  • perde‑se a oportunidade de usar a IA também como “radar” de fraude e má utilização de recursos.

A boa notícia é que Portugal tem condições para fazer este caminho de forma madura:

  • um SNS altamente digitalizado em comparação com outros países europeus;
  • uma entidade como a SPMS a articular tecnologia, compras e sistemas de informação;
  • enquadramento regulatório europeu e nacional em rápida consolidação.

Se trabalha num hospital, ACES, ULS, organismo do Ministério da Saúde ou empresa tecnológica que colabora com o SNS, esta é a altura certa para dar o próximo passo: alinhar a sua estratégia de IA com uma visão integrada de prevenção da fraude e promoção da integridade.

No fundo, inovação clínica em IA só é verdadeira inovação se os doentes puderem confiar que as decisões – humanas ou algorítmicas – são justas, transparentes e orientadas para o melhor cuidado possível.