A combinação de IA e física está a mudar a descoberta de fármacos. Veja onde dá retorno, como aplicar e o que o Brasil pode fazer em 2026.

IA + física na descoberta de fármacos: o próximo salto
A descoberta de fármacos está a viver uma mudança silenciosa: a IA deixou de ser diferencial e virou “higiene” de processo. Em 2025, quase toda a equipa de P&D com ambição já usa alguma forma de modelação preditiva, triagem virtual ou geração de moléculas. O problema? Quando o alvo é novo, os dados são escassos ou o sistema biológico é “teimoso”, a IA baseada apenas em histórico começa a falhar.
A melhor resposta que tenho visto não é “mais IA”. É IA com física — isto é, modelos generativos e preditivos guiados por princípios físico-químicos, estruturas 3D e estimativas de energia de ligação. Essa combinação muda o tipo de pergunta que conseguimos fazer: sai “o que parece com o passado?” e entra “o que funciona no átomo?”.
Esta conversa encaixa perfeitamente na série “IA na Saúde e Biotecnologia” porque, no Brasil, o uso de IA está a amadurecer rápido — em diagnósticos, gestão clínica e também em pesquisa farmacêutica. A oportunidade agora é ligar esse avanço à capacidade de simular e inventar com mais precisão, reduzindo ciclos de tentativa-e-erro no laboratório.
Por que a IA “pura” bate no teto na descoberta de fármacos
A IA treinada só com dados históricos é ótima para padrões repetidos — e fraca para o que ainda não existe. A maior parte do “boom” inicial de IA em drug discovery veio de modelos alimentados por bases de moléculas conhecidas, ensaios de ligação e propriedades físico-químicas já medidas. Funciona bem quando há dados abundantes e consistentes.
O ponto fraco aparece em três cenários comuns em programas modernos:
- Alvos sem histórico de ligantes (proteínas/pockets nunca “drugados”).
- Dados raros, enviesados ou inconsistentes, típicos de projetos novos.
- Proteínas dinâmicas, com múltiplas conformações relevantes para ligação.
Quando a aprendizagem depende de exemplos passados, a IA tende a “remixar” o que já conhece. E isso limita a inovação. Uma frase que resume bem a tensão: não se inventa medicamento só recombinando o passado.
Para o Brasil, isto tem implicação direta: em várias frentes (doenças negligenciadas, novas indicações, alvos pouco explorados localmente), o gargalo é exatamente a falta de dados padronizados e comparáveis. Copiar a estratégia de “treinar com muito dado” nem sempre é viável — precisamos de abordagens que consigam começar com menos.
O que muda quando colocamos física no centro
A física entra como um “sistema de regras” do mundo real: interações atómicas, energia de ligação, flexibilidade conformacional, solvatação, entropia, geometria 3D. Isso permite explorar moléculas que não aparecem naturalmente num dataset, mas fazem sentido quimicamente e estruturalmente.
Na prática, física + IA ajuda a:
- Começar um programa com pouca biologia experimental, desde que exista estrutura do alvo (cristalografia, cryo-EM, ou modelos estruturais robustos).
- Reduzir falsos positivos em triagens virtuais, porque a avaliação não fica só na similaridade com o histórico.
- Explorar “espaços químicos” mais novos, com scaffolds menos óbvios para uma equipa humana — mas ainda plausíveis.
Onde a combinação IA + física dá retorno (e onde não dá)
A combinação brilha quando o problema é difícil e o tempo é curto. Não é uma solução mágica para tudo, e eu acho saudável dizer isso claramente.
1) Alvos “difíceis de drogar”: a nova prioridade
A indústria está a revisitar classes de alvos antes evitadas: interfaces proteína–proteína, reguladores alostéricos, proteínas com pockets transitórios, fatores de transcrição e alvos altamente dinâmicos. Esses casos são justamente onde:
- Há pouca referência de ligantes conhecidos;
- O pocket “aparece e desaparece”;
- A seletividade é complicada;
- A biologia cobra validação rigorosa.
Aqui, a física ajuda a modelar como e onde a molécula pode encaixar, em vez de depender de exemplos anteriores.
2) Velocidade com menos experimento: iterar antes de sintetizar
O dinheiro em descoberta de fármacos evapora na síntese e nos ensaios que não precisam existir. O melhor fluxo é aquele que filtra mais cedo. Plataformas que combinam geração de candidatos com avaliação físico-estrutural conseguem iterar “no computador” até chegar a propostas mais maduras para a bancada.
Quando funciona, o ganho não é apenas “fazer mais”: é fazer menos testes ruins.
3) Validação biológica continua a ser o juiz final
Mesmo com física, o mundo real continua a ser cruel. Há motivos conhecidos para candidatos falharem:
- Efeitos off-target e promiscuidades;
- Metabolismo e toxicidade;
- Permeabilidade e solubilidade;
- Diferenças entre ensaio bioquímico e contexto celular/in vivo.
A postura certa aqui é pragmática: simulação serve para priorizar, não para substituir biologia. Se uma organização tratar a plataforma como oráculo, vai pagar caro.
Como é um fluxo “structure-first”: da proteína à molécula
Um fluxo moderno começa pela estrutura 3D do alvo e termina numa lista curta de moléculas sintetizáveis. Empresas como a Aqemia (citada no artigo-base) defendem esse modelo: em vez de depender de datasets gigantes de ligantes, começam pelo alvo e usam uma combinação de geração + avaliação física.
Um loop que faz sentido (e é replicável)
Um desenho de processo que tenho visto dar certo segue um loop:
- Definir o alvo e hipóteses de mecanismo (agonismo, antagonismo, alosteria etc.).
- Caracterizar a estrutura e a dinâmica (múltiplas conformações, estados do pocket).
- Gerar candidatos (modelos generativos condicionados por restrições químicas e do pocket).
- Pontuar e filtrar com física (energias, encaixe, estabilidade, plausibilidade de interação).
- Otimizar propriedades “drug-like” (ADME, solubilidade, rotas sintéticas, alertas toxicológicos).
- Síntese e validação experimental (o funil real).
O pulo do gato está no item 4: a avaliação não pode ser só estatística. Quando a pontuação incorpora física, a triagem tende a ficar mais robusta em cenários fora do domínio do treino.
“Quantum-inspired” e outros termos: como interpretar sem hype
Algumas plataformas descrevem as suas engines como “inspiradas em mecânica quântica” ou “quantum-inspired physics”. A leitura útil para quem decide é esta:
- Pergunta prática: o método melhora a correlação com dados experimentais relevantes?
- Pergunta operacional: quantos candidatos chegam à síntese para obter 1 hit validado?
- Pergunta de negócio: o pipeline reduz meses de iteração ou apenas gera apresentações bonitas?
Se uma solução não melhora métrica de bancada, ela é só uma camada a mais de complexidade.
O que isso significa para a biotecnologia no Brasil em 2026
O Brasil não precisa copiar o Vale do Silício para aproveitar IA + física. Precisa organizar dados, estrutura e colaboração. O momento é oportuno: no fim de 2025, muitas empresas e centros de pesquisa já passaram da fase “prova de conceito” de IA e estão a procurar vantagem real, sobretudo em projetos com menos dados.
Três movimentos que eu apostaria para 2026
-
Consórcios de dados e padrões de ensaio
- Sem padronização mínima (protocolos, metadados, rastreabilidade), a IA vira areia movediça.
-
Infra para modelação estrutural em escala
- Não é só GPU. É pipeline: preparação de proteínas, protonação, estados de carga, água, conformações, controle de qualidade.
-
Parcerias “shared-risk” entre techbio e pharma/biotech
- O modelo de “ferramenta” tende a ter teto. Parcerias com risco partilhado (marcos, royalties, co-desenvolvimento) criam incentivo para a plataforma entregar molécula validada, não relatório.
Um exemplo bem concreto (e comum)
Pense num laboratório brasileiro com um alvo promissor para oncologia ou imunologia, mas com poucos ligantes conhecidos. Se houver estrutura (experimental ou modelo confiável), um fluxo guiado por física permite:
- começar o design com pouca informação;
- propor scaffolds menos óbvios;
- priorizar síntese com maior chance de encaixe;
- economizar ciclos de química medicinal.
Isto não elimina a necessidade de ensaio. Mas encurta o caminho até um hit que vale a pena.
Perguntas que decisores fazem (e as respostas diretas)
“IA + física serve só para big pharma?”
Não. Serve para quem consegue ligar computação a validação experimental. Uma biotech pequena pode terceirizar síntese/ensaios e ainda assim tirar valor, desde que tenha hipóteses claras e disciplina de dados.
“Vou precisar de uma equipa de físicos?”
Não necessariamente, mas vai precisar de alguém que entenda estrutura e modelação o suficiente para não aceitar pontuações como caixa-preta. O “tradutor” entre química medicinal, biologia e computação vira peça-chave.
“O que medir para saber se está a funcionar?”
Três métricas simples e duras:
- Taxa de sucesso na validação (percentual de hits computacionais que viram hits experimentais);
- Tempo até primeiro hit (semanas/meses);
- Custo por iteração (quantas sínteses/ensaios por rodada de aprendizagem).
Próximo passo: transformar o tema em plano de execução
A integração entre IA e física na descoberta de fármacos é, para mim, a forma mais realista de sair do “modelo genérico” e entrar num ciclo de inovação que aguenta alvos difíceis e dados escassos. No Brasil, isso conversa diretamente com a maturidade crescente da IA na Saúde e Biotecnologia: já aprendemos a aplicar IA em várias frentes; agora é hora de aplicar com mais rigor científico e mais impacto económico.
Se você está a liderar P&D, inovação ou estratégia em pharma/biotech, a pergunta útil para fechar 2025 e planear 2026 é bem objetiva: onde a sua pipeline está a sofrer por falta de dados — e onde a estrutura/biophysics pode destravar o projeto?