Como a IA pode reduzir riscos em terapias genéticas e evitar decisões apressadas em biotec. Aprenda práticas de governança e segurança orientadas por dados.

IA para reduzir riscos em terapias genéticas na biotec
Uma decisão “rápida” num programa de terapia génica pode custar anos de confiança — e, no pior cenário, vidas. Em 17/12/2025, uma análise do jornalista Adam Feuerstein colocou o CEO da Sarepta Therapeutics como exemplo de liderança que assumiu riscos desnecessários ao pressionar por uma aprovação mais ampla de uma terapia génica para Distrofia Muscular de Duchenne (DMD), mesmo com dados clínicos limitados para subgrupos mais vulneráveis.
Não vou repetir o ranking nem personalizar o debate em torno de um nome. O ponto que interessa (e que dói) é outro: quando a estratégia corporativa corre mais depressa do que a evidência clínica, o sistema inteiro paga a fatura — pacientes, equipas médicas, reguladores e investidores.
Na série “IA na Saúde e Biotecnologia”, tenho defendido uma ideia simples: IA não serve para “decidir por nós”; serve para reduzir cegueiras. Em biotecnologia, isso significa antecipar sinais de segurança, melhorar a qualidade das evidências e diminuir a probabilidade de expandir indicações com base em esperança e pressão — em vez de dados.
O que este caso expõe: o custo de expandir sem evidência sólida
A lição direta é clara: expandir indicação (mais idade, mais gravidade, mais heterogeneidade) aumenta o risco clínico e regulatório. Em doenças raras e graves como DMD, a urgência é real, mas não elimina a necessidade de demonstrar benefício e segurança em populações específicas.
Quando uma empresa tenta “abrir” demasiado cedo o funil de elegibilidade, três coisas tendem a acontecer:
- O sinal de eficácia dilui-se: populações mais heterogéneas tornam mais difícil perceber se o tratamento realmente ajuda.
- O perfil de segurança piora: doentes mais frágeis ou em estágios avançados podem ter menor tolerância a eventos adversos.
- O risco reputacional dispara: qualquer evento grave vira manchete — e com razão.
Em terapias avançadas (terapia génica, terapia celular, RNA), a margem de erro é pequena. O “vamos tentar e ver” é uma postura perigosa quando o produto é complexo, caro e com efeitos biológicos potencialmente irreversíveis.
A armadilha mais comum: confundir urgência com permissão para arriscar
DMD é devastadora. Famílias pressionam, médicos pressionam, investidores pressionam, e a própria equipa interna quer “entregar”. Só que urgência não é evidência.
A postura madura em biotec é aceitar que:
- nem todo subgrupo responde igual;
- o risco muda com a progressão da doença;
- a taxa de eventos adversos pode subir exatamente onde a necessidade é maior.
É aqui que uma abordagem orientada por dados — com IA bem aplicada — muda a qualidade da decisão.
Onde a IA entra (de verdade): decisão clínica e estratégia com menos achismos
A pergunta prática é: como a IA pode evitar que liderança e estratégia empurrem um programa para além do que os dados sustentam? Não é com “chatbots”. É com disciplina analítica.
Abaixo estão quatro usos de IA e ciência de dados que, juntos, reduzem a probabilidade de expandir populações de risco às cegas.
1) Modelos de estratificação de risco para subgrupos (antes do pedido ao regulador)
A resposta curta: IA ajuda a mapear quem tem maior probabilidade de benefício e quem tem maior probabilidade de dano.
Na prática, equipas podem construir modelos com:
- biomarcadores (laboratoriais, imagem, genómica);
- medidas funcionais (mobilidade, função respiratória);
- histórico de comorbilidades e medicação concomitante;
- características do vetor/entrega (no caso de terapia génica).
O resultado não deve ser “aprovar ou não aprovar”. Deve ser um artefacto de governança:
- matriz de risco por subgrupo;
- limiares de exclusão/monitorização;
- hipóteses testáveis para desenho de estudo.
Uma frase que eu usaria numa sala de decisão: “Se não conseguimos justificar a expansão com risco quantificado por subgrupo, ainda não estamos prontos.”
2) Deteção precoce de sinais de segurança (farmacovigilância aumentada)
Em terapias avançadas, sinais raros podem aparecer tarde — e quando aparecem, já é crise.
IA pode fortalecer farmacovigilância ao:
- identificar padrões anómalos em eventos adversos (mesmo com baixa frequência);
- cruzar dados clínicos com laboratoriais e sinais vitais;
- priorizar “casos sentinela” para revisão médica imediata;
- reduzir ruído (falsos alarmes) com regras clínicas + ML.
No Brasil, onde dados podem estar dispersos entre serviços, uma arquitetura mínima de vigilância baseada em padrões de interoperabilidade (ex.: FHIR) + modelos de anomalia já dá um salto enorme.
3) Ensaios clínicos mais inteligentes: desenho adaptativo e “probabilidade de sucesso” realista
A resposta curta: IA melhora a pergunta do estudo, não só a análise final.
Boas equipas usam modelos para simular:
- tamanho amostral por subgrupo;
- impacto de critérios de inclusão (mais amplos vs. mais restritos);
- endpoints mais sensíveis para estágio avançado;
- cenários de risco-benefício.
Se a simulação mostra que, ao incluir doentes mais graves, a chance de ler um sinal de eficácia cai e o risco sobe, a decisão correta é óbvia: separar coortes, escalonar dose, ou adiar expansão.
4) Real World Evidence (RWE) com qualidade: menos “dados de prateleira”, mais causalidade
RWE é tentadora: é rápida, é grande, é barata. Só que RWE mal feito vira argumento fraco.
IA ajuda a elevar o nível quando é usada para:
- harmonização e limpeza de dados (EHR, claims, registos);
- matching/ponderação (propensity scores) para reduzir vieses;
- identificação de subpopulações comparáveis;
- monitorização pós-uso em tempo quase real.
Para doenças raras no Brasil, um caminho pragmático é combinar:
- registos de pacientes (associações e centros de referência);
- dados hospitalares (SUS e privados, quando possível);
- protocolos uniformes de recolha (mesmo que simples).
A diferença entre “temos dados” e “temos evidência” está em como se controla viés.
Um recado para o Brasil: governança de IA em biotec não é burocracia, é segurança
A resposta direta: sem governança, IA vira só mais uma forma de justificar decisões já tomadas.
Se o objetivo é reduzir erros estratégicos e proteger doentes, a governança precisa de três camadas.
Governança 1 — Clínica: comitês e critérios claros de expansão
Antes de qualquer expansão de indicação, recomendo formalizar:
- critérios mínimos de evidência por subgrupo (eficácia e segurança);
- plano de monitorização intensiva (primeiros 30, 60, 90 dias);
- regras de pausa do estudo/uso (gatilhos objetivos);
- revisão independente (DSMB/Comitê externo), quando aplicável.
Governança 2 — Dados: qualidade, rastreabilidade e interoperabilidade
IA é tão boa quanto o dado — e o dado em saúde costuma ser bagunçado.
Checklist prático:
- dicionário de dados e versionamento;
- trilha de auditoria (quem alterou, quando, por quê);
- padronização de terminologias (CID, LOINC, SNOMED quando disponível);
- integração por padrões (FHIR) para reduzir “planilhas eternas”.
Governança 3 — Modelo: validação, vieses e explicabilidade útil
Não basta “AUC alto”. Em saúde, a pergunta é: o modelo erra com quem?
Exigir:
- validação externa (outros centros);
- análise por subgrupos (idade, gravidade, comorbidades);
- monitorização de drift (mudança de perfil ao longo do tempo);
- explicações clínicas (ex.: variáveis que mais contribuíram) revisadas por especialistas.
“Perguntas que toda liderança deveria fazer” antes de ampliar acesso
Este bloco é para CEOs, diretores médicos, líderes de P&D e estratégia — e também para quem investe.
- Qual subgrupo tem evidência direta de benefício? Não “provável”. Direta.
- Onde o risco biológico é maior (e por quê)? Específico, não genérico.
- O que os dados não conseguem responder ainda? E qual o plano para responder.
- Que gatilhos vão interromper a expansão? Em linguagem operacional.
- O que a IA está a medir e o que ela não vê? (dados ausentes matam modelos).
Se a resposta para metade disso for vaga, a organização não está pronta para decisões “amplas”.
Da polémica à prática: como transformar esta lição em vantagem competitiva
A resposta curta: a empresa que trata segurança e evidência como produto constrói confiança.
No fim de 2025, com pressão por resultados e ciclos de financiamento mais exigentes, biotechs que quiserem sobreviver vão precisar mostrar:
- decisões reprodutíveis e auditáveis;
- capacidade de aprender rápido sem expor doentes ao desnecessário;
- transparência interna (e, quando possível, externa) sobre racional de subgrupos.
No Brasil, vejo oportunidade real para:
- centros de referência em doenças raras estruturarem registos com padrão de dados;
- startups de IA em saúde trabalharem junto de hospitais e CROs para vigilância e desenho de estudo;
- áreas de inovação de farmacêuticas implementarem “safety analytics” como rotina, não como reação.
Frase para guardar: “Em terapia avançada, a pressa sem evidência não acelera o acesso — ela atrasa o campo inteiro.”
Próximo passo (se você está a liderar, investir ou construir IA)
Se você atua em biotecnologia, saúde digital, hospital, CRO, indústria farmacêutica ou fundo, eu faria um exercício ainda esta semana: pegue um programa clínico (ou um pipeline) e escreva uma política de expansão em uma página. Uma página mesmo. Com critérios, dados necessários, gatilhos e responsáveis.
Depois, pergunte: que parte dessa política poderia ser reforçada por IA com dados que já existem? Normalmente, a resposta começa por estratificação de risco e farmacovigilância.
A série “IA na Saúde e Biotecnologia” existe para isso: sair da discussão abstrata e chegar no que reduz erro, risco e desperdício. A pergunta que fica para 2026 é simples e incômoda: quantas decisões “estratégicas” ainda vamos aceitar sem uma camada séria de inteligência de dados a proteger o doente?