Österreichische Versicherer brauchen bei KI mehr als Bauchgefühl. Wie Calvin-Risk-Ansätze helfen, Modelle zu testen, Risiken zu steuern und echte Governance aufzubauen.
Vertrauen in KI ist kein Bauchgefühl – schon gar nicht in Versicherungen
Eine Zahl, die viele überrascht: Laut EU-Kommission arbeiten inzwischen über 60 % der großen Finanzdienstleister mit KI in Kernprozessen – von der Schadenbearbeitung bis zur Betrugserkennung. Gleichzeitig geben Führungskräfte in internen Befragungen zu, dass sie die Risiken ihrer Modelle nur begrenzt verstehen.
Genau hier liegt das Problem für österreichische Versicherer: KI entscheidet längst über Annahme, Prämienhöhe und Leistungsprüfung, aber das Vertrauen in diese Systeme basiert oft auf Bauchgefühl, Vendor-Slides und einem „wird schon passen“. Das reicht weder für die FMA, noch für den EU AI Act, und schon gar nicht für Kund:innen, die im Schadenfall eine faire Entscheidung erwarten.
In dieser Ausgabe unserer Reihe „KI für österreichische Versicherungen: InsurTech“ geht es deshalb nicht um den nächsten fancy Use Case, sondern um eine Frage, die viele zu lange wegschieben: Wie testet man KI systematisch, wie macht man Risiken sichtbar – und wie baut man Governance auf, die auch einem Stresstest standhält? Dazu schauen wir auf den Ansatz von Calvin Risk – einem InsurTech, das sich genau auf diese Lücke spezialisiert hat – und übersetzen die Ideen in konkrete Handlungsempfehlungen für den österreichischen Markt.
Warum KI-Vertrauen für Versicherer messbar sein muss
Vertrauen in KI ist für Versicherungen kein „Soft Skill“, sondern eine aufsichtsrelevante Kennzahl. Wer seine Modelle nicht erklären, testen und auditieren kann, gefährdet Geschäft, Reputation und Zulassung.
Drei harte Gründe, warum Bauchgefühl nicht reicht
-
Regulierung zieht an
Mit dem EU AI Act und bestehenden Regelwerken wie Solvency II, DORA und nationalen FMA-Rundschreiben wird klar:- Hochrisiko-KI (z. B. in Underwriting, Pricing, Claim Handling) braucht Risikobewertung, Dokumentation und Monitoring.
- Versicherer müssen nachweisen, wie sie ihre Modelle testen – nicht nur, dass sie „irgendetwas mit KI“ machen.
-
Reputationsrisiko ist real
Ein einzelner Fall – etwa ein algorithmisch benachteiligter Kundentyp, eine systematisch zu niedrige Schadenregulierung oder diskriminierende Tarife – kann in Social Media und Medien rasch zur Krise werden.
Besonders in Österreich, wo der Markt überschaubar ist und Kund:innen viel über persönliche Empfehlung kommen, können ein paar Schlagzeilen Jahre an Markenarbeit zerstören. -
Operative Risiken steigen mit KI-Skalierung
Je mehr Prozesse KI-gestützt ablaufen – etwa:- automatisierte Schadenbearbeitung
- Risikobewertung in Echtzeit bei Online-Abschlüssen
- Betrugserkennung mit ML-Modellen
- personalisierte Tarife mit dynamischer Bepreisung
desto größer wird der Hebel kleiner Modellfehler. Ein Bias, der im PoC kaum auffiel, kann in der Fläche Millionen kosten.
Die Realität: Vertrauen in KI ist eine Governance-Frage. Wer hier sauber aufsetzt, hat einen Wettbewerbsvorteil – technologisch, regulatorisch und im Vertrieb.
Was Calvin Risk anders macht – und warum das für Versicherer spannend ist
Calvin Risk positioniert sich bewusst nicht als klassischer KI-Anbieter. Keine neuen Modelle, keine hübschen Interfaces, sondern eine klare Rolle: unangenehme Fragen stellen und KI hart testen.
„Was passiert, wenn eure KI eine falsche Entscheidung trifft? Wer trägt die Verantwortung, wenn sie nicht so funktioniert wie geplant?“
Der Ansatz lässt sich in drei Bausteine für Versicherer übersetzen:
1. KI-Tests wie Stresstests für Kapitalanlagen
Versicherer sind es gewohnt, Portfolios gegenüber Zins-, Markt- und Naturgefahren zu stressen. Warum nicht dasselbe für KI-Modelle?
Ein systematischer KI-Stresstest umfasst typischerweise:
-
Szenario-Tests: Wie reagiert das Modell auf Extremwerte, seltene Kombinationen oder Datenlücken?
Beispiel: Ein Schadenregulierungsmodell erhält unvollständige Dokumente, untypische Rechnungspositionen oder neue Betrugsmuster. -
Sensitivitätsanalysen: Welche Eingangsvariablen beeinflussen das Ergebnis am stärksten?
So wird sichtbar, ob etwa Postleitzahl oder Alter ganz unverhältnismäßig stark in die Entscheidung einfließen. -
Robustheit gegen Datenverschiebung: Funktioniert das Modell noch, wenn sich der Bestand oder das Kund:innenprofil ändert – z. B. nach einem Maklerzukauf oder in einer neuen Region in Österreich?
2. Governance-Strukturen vor PR-Krisen aufbauen
Calvin Risk arbeitet an der Schnittstelle von Technologie, Regulierung und Reputationsschutz. Versicherer brauchen dafür klare Verantwortlichkeiten:
- Wer genehmigt ein neues KI-Modell? (Fachbereich, Risiko, Compliance?)
- Wer überwacht die Performance im Live-Betrieb?
- Wann wird ein Modell pausiert oder zurückgerollt?
- Wie werden Kund:innenbeschwerden mit möglichem KI-Bezug analysiert?
Ein AI Governance Committee auf Ebene der ersten und zweiten Verteidigungslinie hat sich in vielen Häusern bewährt – inklusive Entscheidungsrechten und klar definierten KPIs für Modellrisiko.
3. Vertrauen in Black-Box-Systeme schaffen
Viele Versicherer nutzen heute Modelle, die nur schwer erklärbar sind (z. B. komplexe Gradient-Boosting-Modelle oder Deep Learning). Die Frage lautet nicht mehr, ob man solche Modelle nutzen darf, sondern wie man sie erklärbar und auditierbar macht.
Ansätze dazu:
- Modell-Erklärbarkeit mit Methoden wie Feature Importance, SHAP oder LIME, aufbereitet für Fachbereiche.
- Policy-Regeln um die KI herum: z. B. feste Leitplanken, innerhalb derer Tarife variieren dürfen.
- Fallback-Entscheidungen: Wann entscheidet der Mensch, wann die Maschine, und wann braucht es 4-Augen-Prinzip?
Gerade für österreichische Versicherer, die traditionell stark auf persönliche Beratung setzen, ist Transparenz entscheidend, damit Vertrieb und Partner:innen sich auf KI-gestützte Entscheidungen einlassen.
Operative Exzellenz: Ohne Kontrollschicht keine sichere KI-Skalierung
Operative Exzellenz klingt oft nach Prozessoptimierung und Kostensparen. Im Kontext von KI bedeutet es aber vor allem eines: eine saubere Kontroll-, Test- und Nachweisschicht über allen KI-basierten Prozessen.
Wo KI heute in österreichischen Versicherungen eingreift
In unserer Serie sehen wir immer wieder ähnliche Use Cases:
- Schadenbearbeitung: automatische Dokumentenerkennung, Priorisierung, Teil- oder Vollautomatisierung von Leistungsentscheidungen.
- Risikobewertung: Scoring-Modelle im Underwriting, z. B. für Kfz, Haushalt, Gewerbe.
- Betrugserkennung: Anomalieerkennung in Schadenmeldungen, Netzwerkanalysen von Beteiligten.
- Personalisierte Tarife: dynamische Prämien, Telematik in Kfz, gesundheitsbezogene Anreize in der Krankenversicherung.
Jeder dieser Bereiche braucht klar definierte Test- und Kontrollpunkte, bevor ein Modell live geht und regelmäßig danach.
Wie sieht eine praktikable Kontrollschicht aus?
Ein praxistaugliches Setup lässt sich in vier Schritten aufbauen:
-
Modell-Register aufbauen
Alle produktiven KI-Modelle werden erfasst – mit Zweck, Datenquellen, Owner, Genehmigungsstatus und Risikoklasse. -
Standardisierte Testkataloge definieren
Für jede Modellklasse gibt es Pflicht-Tests:- Datenqualität
- Bias-Checks (z. B. nach Alter, Geschlecht, Region)
- Stabilität über Zeit
- Performance vs. Business-KPIs (z. B. Schadenquote, Bearbeitungsdauer)
-
Monitoring im Betrieb etablieren
- Dashboards mit Performance- und Risikokennzahlen
- Alerts bei Schwellenwertüberschreitungen
- Regelmäßige Reviews mit Fachbereich, Risiko und IT
-
Nachweisfähigkeit herstellen
Alle Tests, Änderungen und Entscheidungen werden nachvollziehbar dokumentiert – für interne Revision, FMA-Prüfungen und gegebenenfalls externe Audits.
Genau hier setzt eine spezialisierte Lösung wie Calvin Risk an: Sie stellt Methoden, Werkzeuge und Governance-Templates bereit, damit Versicherer diese Kontrollschicht nicht jedes Mal neu erfinden müssen.
Vom „schönen Use Case“ zum beherrschten Risiko
Viele KI-Projekte starten mit Begeisterung im Fachbereich: „Wir könnten in der Schadenbearbeitung 30 % schneller werden“, „Wir erkennen doppelt so viele Betrugsfälle“ oder „Wir machen Tarife viel individueller“.
Die unbequemen Fragen kommen oft zu spät, manchmal erst kurz vor Produktivsetzung:
- Was, wenn der schönste Use Case zum größten Risiko wird?
- Wie reagieren wir, wenn der Algorithmus ganze Kund:innengruppen benachteiligt?
- Wer trägt Verantwortung, wenn es schiefgeht – Fachbereich, IT, Data Science oder der Vorstand?
Drei konkrete Praxisbeispiele (fiktiv, aber realistisch)
-
Schadenautomatisierung mit verstecktem Bias
Ein Modell lehnt kleine, häufige Schäden in bestimmten Postleitzahlen signifikant häufiger ab. Erst ein gezielter Fairness-Test deckt auf: historisch niedrigere Auszahlungspraxis in bestimmten Regionen wurde vom Modell „gelernt“. -
Aggressive Betrugserkennung vs. Kundenerlebnis
Ein neues Modell markiert 5 x mehr Schäden als „verdächtig“. Die Betrugsquote verbessert sich, aber seriöse Kund:innen werden vermehrt geprüft, die Bearbeitungszeiten steigen, und Beschwerden beim Kundenservice explodieren. -
Dynamische Tarife mit Reputationssprengstoff
Ein dynamisches Pricing-Modell bietet bestimmten Neukund:innen über einen Online-Kanal deutlich niedrigere Prämien als langjährigen Bestandskund:innen mit ähnlichem Profil. Ein Posting in einem Vergleichsforum reicht, und die Sache landet in den Medien.
Der rote Faden: Hätte man die Modelle vorab unter Risiko- und Fairness-Gesichtspunkten so getestet, wie man es mit Kapitalanlagen oder Rückversicherungsprogrammen tut, wären viele Probleme aufgefallen, bevor sie öffentlich wurden.
Was österreichische Versicherer jetzt konkret tun sollten
Für österreichische Versicherer, die KI in Schadenbearbeitung, Risikobewertung, Betrugserkennung oder Tarifierung nutzen oder planen, bieten sich fünf pragmatische Schritte an:
-
KI-Landkarte erstellen
- Wo wird heute schon KI eingesetzt?
- Welche Projekte sind in Planung?
- Welche Modelle sind „entscheidungsrelevant“ (also hochrisikorelevant)?
-
AI Governance verankern
- Ein klares Rollenmodell (Owner, Risk, Compliance, IT, Fachbereich).
- Ein AI Governance Committee mit Entscheidungsbefugnissen.
- Richtlinien, wann ein Modell genehmigt, geändert oder gestoppt wird.
-
Test- und Kontrollframework definieren
- Standardisierte Tests für Modelle je Use Case (Schaden, Betrug, Pricing etc.).
- Festlegen von Schwellwerten und Alarmmechanismen.
-
Pilot mit externer Expertise aufsetzen
- Start mit einem kritischen, aber überschaubaren Use Case (z. B. Betrugsscore in einem Produktbereich).
- Zusammenarbeit mit spezialisierten Partnern wie Calvin Risk, die Methoden, Tools und Governance-Erfahrung mitbringen.
-
Kulturwandel anstoßen
- Data Scientists, Aktuariat, Fachbereiche und Compliance an einen Tisch bringen.
- Unbequeme Fragen zulassen und belohnen: „Was könnte hier schiefgehen?“
- Training zu Explainable AI und AI Risk Management für Schlüsselrollen.
Wer diese Schritte in den kommenden 12–18 Monaten angeht, ist nicht nur regulatorisch gut aufgestellt, sondern kann KI schneller und sicherer skalieren – statt in Dauer-PoCs zu hängen.
Fazit: Sichere KI ist ein Versicherungsprodukt im eigenen Haus
Das Spannende an Ansätzen wie dem von Calvin Risk: Sie erinnern Versicherer daran, dass sie im Kern Risikomanager sind – und KI eben nur eine neue Risikoklasse. Statt blind auf Bauchgefühl zu vertrauen, wird die Frage gestellt: Wie messen, steuern und dokumentieren wir dieses Risiko professionell?
Für die österreichische Versicherungsbranche, die ohnehin vor Themen wie steigenden Naturgefahren, Kostendruck und verändertem Kund:innenverhalten steht, ist das eine Chance: Wer KI vertrauenswürdig und auditierbar einsetzt, kann Schadenbearbeitung, Risikobewertung, Betrugserkennung und personalisierte Tarife deutlich effizienter gestalten – ohne Regulierung oder Reputation zu gefährden.
Der nächste logische Schritt: Prüfen, wo in Ihrem Haus heute Entscheidungen von KI beeinflusst werden – und ob Sie dort mehr auf Hoffnung oder bereits auf belastbare Governance setzen. Wenn Sie merken, dass es eher ersteres ist, ist jetzt der richtige Zeitpunkt, das zu ändern.