CHMP säger nej till blarcamesin. Här är vad det avslöjar om data, studiedesign och hur AI kan öka chansen för EMA-godkännande i Alzheimer.

EMA säger nej till alzheimerkapsel – så kan AI höja träffsäkerheten
EMA:s expertkommitté CHMP sa nej till ett villkorat marknadsgodkännande för Anavex orala alzheimerkandidat blarcamesin den 2025-12-15. Det är en notis som lätt passerar förbi i decemberbruset – men för alla som jobbar med läkemedel och bioteknik är den en tydlig påminnelse: regulatorik är i praktiken en datadisciplin.
Jag tycker också att det här avslaget säger något större om Alzheimerfältet 2025: vi har fler biologiska hypoteser än någonsin, men vi har fortfarande svårt att bevisa klinisk nytta på ett sätt som håller i EMA:s granskning. Den glappet är exakt där AI kan göra konkret nytta – inte genom att “hitta ett nytt läkemedel i ett klick”, utan genom att förbättra beslutsunderlag, studiedesign och evidenslogik.
Det här inlägget är en del av vår serie AI inom läkemedel och bioteknik och använder CHMP:s nej som en fallstudie: vad betyder ett avslag i praktiken – och vilka AI-baserade arbetssätt kan minska risken att ett projekt faller på mållinjen?
Vad betyder CHMP:s nej – och varför händer det så ofta i neuro?
CHMP:s rekommendation är i praktiken ett besked om att nytta–risk-balansen inte är tillräckligt övertygande för den ansökta indikationen och den föreslagna evidenspaketeringen. För ett villkorat godkännande är ribban speciell: det ska finnas ett omedelbart medicinskt behov, och datan ska vara tillräckligt stark för att motivera tidig tillgång, samtidigt som ytterligare studier förväntas fylla igen luckor.
I neurodegenerativa sjukdomar faller ansökningar ofta på tre återkommande punkter:
- Heterogen patientpopulation: “Tidigt Alzheimer” är inte en enda biologisk verklighet.
- Brusiga effektmått: kognition och funktion påverkas av många faktorer, och mätfel är vanligt.
- Kort uppföljning: sjukdomsförloppet är långsamt, vilket gör små effekter svåra att säkra statistiskt.
Villkorat godkännande: datan måste ändå vara tydlig
Ett vanligt missförstånd är att “villkorat” betyder “lägre beviskrav”. Jag håller inte med. I praktiken handlar det om annorlunda bevislogik: du kan få igenom tidigare om du visar tydliga signaler och har en trovärdig plan för att verifiera nytta snabbt. Men om signalen är otydlig, eller om undergrupper drar åt olika håll, blir det svårt.
Och där uppstår nästa fråga: om datan är komplex och heterogen, hur kan man öka tydligheten utan att fuska med statistiken? Svaret är ofta: bättre design, bättre analys, bättre spårbarhet. AI kan bidra i alla tre.
Varför Alzheimerstudier faller: dataproblem som ser kliniska ut
Den snabba förklaringen till många misslyckanden är “läkemedlet fungerade inte”. Men när man skrapar på ytan är det ofta dataproblem som maskerar effekten (eller skapar skenbara effekter).
Problem 1: Fel patienter i studien (en biomarkörfråga)
För tidig Alzheimer är biologisk verifiering central. Om inklusionen är för bred får du deltagare med andra orsaker till kognitiv svikt (vaskulärt, depression, blandpatologi). Resultatet blir en prövning som mäter “allt möjligt” och därför får svag signal.
AI i praktiken:
- Multimodala modeller som kombinerar journaldata, kognitionstester, APOE-status och biomarkörer för att förbättra sannolikheten att rätt patienter inkluderas.
- Bildanalys av MR/PET för mer konsekvent tolkning mellan sajter.
Problem 2: Endpoints och mätbrus (en operationaliseringsfråga)
Klassiska skalor som ADAS-Cog, CDR-SB och funktionella mått är användbara – men känsliga för tränings- och center-effekter. I multisite-studier kan variationen mellan prövningscenter bli lika stor som den förväntade behandlingseffekten.
AI i praktiken:
- Detektera “drift” i mätning tidigt: modeller som flaggar center som avviker, innan det blir ett regulatoriskt problem.
- Skapa mer robusta kompositmått genom att väga samman flera delmått på ett transparent sätt.
Problem 3: Undergrupper som drar åt olika håll (en signalupplösningsfråga)
Alzheimer är inte en monolit. Effekten kan finnas i en biologiskt definierad subgrupp men drunkna i totalpopulationen. Problemet är att efterhandsanalys av subgrupper ofta ses som hypotesgenererande.
AI i praktiken:
- Prospektivt definierade stratifieringar: använd maskininlärning på historiska data för att föreslå fördefinierade subgrupper (t.ex. biomarkörprofiler) redan i protokollet.
- Adaptiva designförslag där randomisering eller sample size justeras enligt förutbestämda regler.
En mening jag ofta återkommer till: Regulatoriska avslag beror sällan på “för lite data” – de beror på data som inte svarar på rätt fråga.
Så kan AI stärka evidenspaketet inför EMA: tre nivåer
Den mest produktiva diskussionen om AI och regulatorik börjar inte med algoritmer, utan med vilket beslut som ska fattas och vilken osäkerhet som behöver minska.
1) Före studiestart: AI för design som tål granskning
Nyckeln är att göra osäkerheten explicit. Då kan du designa bort den.
Konkreta arbetssätt jag sett fungera:
- Digital tvilling för studieplanering: simulera olika inklusionskriterier, dropout-antaganden och endpoints för att se var power faktiskt kommer ifrån.
- Site selection med riskmodellering: välj center baserat på historik (rekryteringstakt, protokollavvikelser, datakvalitet). Det är inte glamoröst, men det sparar månader.
- AI-stödd protokollgranskning: NLP som hittar tvetydigheter, konflikter och operativa risker i protokolltexten.
2) Under studien: AI för datakvalitet och tidiga varningssignaler
Här är “snabbare” inte huvudpoängen. Poängen är att minimera bias och undvika att studien blir omöjlig att tolka.
Praktiska användningsfall:
- Anomali-detektion för att hitta misstänkt jämn scoring, avvikande besöksmönster eller dataströmmar som tyder på utbildningsbrister.
- Prediktiva modeller för dropout och non-adherence, med riktade åtgärder per patientgrupp.
- Automatiserad granskning av fria textfält i eCRF för att upptäcka inkonsekvenser.
3) Vid ansökan: AI för spårbar analys och regulatorisk läsbarhet
En ansökan faller inte bara på resultat, utan på tolkningsbarhet. När EMA ställer frågor måste man kunna svara snabbt, konsekvent och spårbart.
AI kan bidra med:
- “Evidence mapping”: koppla varje claim (effekt, säkerhet, subgrupp) till exakt vilka tabeller/figurer/dataset som stöder den.
- Generering av utkast till svar på regulatoriska frågor, där varje stycke har tydlig referens till analysplan och pre-specifierade metoder.
- Modellövervakning och versionshantering så att analyser är reproducerbara.
Fallstudien blarcamesin: vad hade kunnat göras annorlunda (utan att spekulera i data)?
Vi vet från nyhetsnotisen att CHMP inte rekommenderade ett villkorat godkännande. Vi vet inte detaljerna bakom bedömningen från öppna utdrag här, så jag tänker inte låtsas.
Men det går att vara konkret ändå, genom att fokusera på de vanligaste friktionspunkterna mellan sponsor och regulator i tidig Alzheimer:
- Klinisk relevans vs statistisk signifikans
- AI kan hjälpa till att koppla förändringar i kognitiva skalor till mer “vardagsnära” funktionella utfall med modeller som är fördefinierade och validerade.
- Generaliserbarhet
- AI-baserade external control arms kan ibland stärka kontexten, men kräver extremt god datastyrning. Det som vinner tid kan annars kosta trovärdighet.
- Konsekvens mellan delmängder och center
- Här är AI starkt: upptäck center-effekter tidigt och gör operationalisering mer standardiserad.
Min ståndpunkt: om en ansökan bygger på en “svårtolkad helhet” kommer EMA att behandla den som svårtolkad. Då hjälper inte fler slides. Det som hjälper är att bygga evidens som är robust redan från protokollet.
Vanliga frågor jag får från biotech-team om AI och regulatorik
“Accepterar EMA AI-analyser?”
Ja – om de är förklarbara, validerade och pre-specifierade där det behövs. En black-box som dyker upp i efterhand blir snabbt en förtroendefråga. AI ska göra arbetet mer spårbart, inte mindre.
“Kan AI ersätta kliniska endpoints?”
Inte rakt av. Däremot kan AI skapa stödjande evidens, förbättra precisionen i mätningar (t.ex. bildanalys) och hjälpa till med stratifiering. För Alzheimer är kombinationen av kliniska mått och biomarkörer ofta det som gör helheten trovärdig.
“Var börjar man om man vill minska risken för CHMP-nej?”
Börja med datakvalitet och studiedesign. Det är där ROI brukar vara tydligast:
- Stramare inklusion med biomarkörstöd
- Standardisering och övervakning av mätningar
- Prospektiva planer för heterogenitet (subgrupper)
Nästa steg för svenska biotechbolag: en praktisk AI-checklista
Om du jobbar i Sverige (eller Norden) och vill koppla ihop AI, kliniska studier och regulatorik i neuro, skulle jag börja med detta:
- Bygg en gemensam datamodell (kliniska data, biomarkörer, imaging, PROs) tidigt.
- Sätt en “regulatorisk ML-policy”: versionshantering, spårbarhet, validering, dokumentation.
- Simulera protokollet innan första patienten: power, dropout, center-effekter, missing data.
- Inför AI-baserad datamonitorering som komplement till traditionell monitorering.
- Träna organisationen: klinik, biostatistik, data science och regulatory måste kunna prata samma språk.
Det snabbaste sättet att förlora tid är att försöka spara tid på fel ställe.
Det här är också en bra tidpunkt (precis före årsskiftet 2025) att se över portföljen: vilka projekt är i fas där en designjustering under Q1 2026 faktiskt kan påverka sannolikheten för regulatorisk framgång, istället för att bara “optimera rapporteringen” senare?
Vad CHMP:s nej egentligen signalerar för AI inom läkemedel och bioteknik
Avslaget för blarcamesin är inte ett bevis på att orala alzheimerläkemedel är döda. Det är ett bevis på att evidenskraven i Alzheimer fortsätter att skärpas – och att bolag som hanterar heterogenitet, mätprecision och spårbarhet vinner.
För mig är lärdomen enkel: AI är som mest värdefullt när den används som en kvalitetsmaskin i utvecklingskedjan – från patienturval till regulatoriska svar. Om ditt team kan visa att ni hittar problem tidigare, mäter mer konsekvent och motiverar analysbeslut bättre, då har ni byggt en konkurrensfördel som syns i dialogen med EMA.
Om du vill att nästa Alzheimerstudie ska ha högre chans att överleva CHMP:s frågor: vilka delar av ert evidenspaket är idag beroende av “tolkning” snarare än av spårbar, robust data – och hur kan AI göra den delen mindre sårbar redan före första patienten?