Generative KI und LLMs bieten enorme Chancen für österreichische Versicherer – wenn Risiken wie Halluzinationen, Bias und Regulatorik aktiv gemanagt werden.
Generative KI und LLMs: Chance – aber nur mit Sicherheitsnetz
Österreichische Versicherer stehen unter Druck: steigende Schadenkosten, Fachkräftemangel, härterer Wettbewerb. Gleichzeitig zeigen aktuelle Studien, dass KI-Projekte in der Assekuranz Produktivitätsgewinne von 10–30 % bringen können – insbesondere bei Schadenbearbeitung, Risikobewertung, Betrugserkennung und personalisierten Tarifen.
Die Realität: Generative KI und Large Language Models (LLMs) sind längst in der Branche angekommen – auch im DACH-Raum. AXA betreibt bereits ein eigenes GPT für Mitarbeitende, österreichische Häuser testen intern mit „versicherungsfein“ zugeschnittenen Modellen. Doch wer unvorbereitet startet, holt sich schnell Haftungs-, Reputations- und Compliance-Risiken ins Haus.
In diesem Beitrag aus der Reihe „KI für österreichische Versicherungen: InsurTech“ geht es darum, wie Sie Generative KI und LLMs sicher, rechtssicher und wirtschaftlich sinnvoll in Ihrem Unternehmen einsetzen – mit Fokus auf praktische Taktiken statt Hype.
1. Generative KI – die zentralen Risiken auf einen Blick
Der wichtigste Punkt vorweg: Die Risiken von Generative KI sind beherrschbar, wenn sie bewusst adressiert werden. Vier Problemfelder tauchen in nahezu jedem Projekt auf.
1.1 Halluzinationen und falsche Fakten
LLMs sind Sprachmodelle, keine Wissensdatenbanken. Sie generieren plausible Sätze – nicht zwingend wahre Aussagen. Das führt zu:
- „Halluzinierten“ Gesetzesverweisen im Schadenfall
- Falsch zusammengefassten Gutachten
- Erfundener Produktlogik bei komplexen Polizzen
Für eine österreichische Kfz-Versicherung kann das z.B. heißen: Das System behauptet, ein bestimmter Schaden sei nach AKHB gedeckt, obwohl er ausdrücklich ausgeschlossen ist. Passiert das im Kundendialog, ist der Reputationsschaden vorprogrammiert.
1.2 Datenschutz und Vertraulichkeit
Viele Gen-KI-Dienste sind ursprünglich für den Massenmarkt gebaut, nicht für regulierte Branchen. Typische Risiken:
- Kundendaten landen in Trainingspools externer Anbieter
- Sensible Vertragsdetails werden „in the cloud“ ohne klare Datenlokation verarbeitet
- DSGVO- und VersVG-Verstöße durch unzulässige Profilbildung
Gerade in Österreich, wo Kund:innen traditionell stark auf Datenschutz achten, ist das ein echter Vertrauens- und damit Vertriebsfaktor.
1.3 Verstärkung von Bias und Diskriminierung
Wenn Trainingsdaten Voreingenommenheiten enthalten, werden diese von der KI verstärkt. Für Versicherungen besonders kritisch:
- Benachteiligung bestimmter Altersgruppen oder Wohngebiete bei der Tarifierung
- Unfaire Behandlung in der Schadenbearbeitung (z.B. „untypische“ Schadenszenarien)
- Indirekte Diskriminierung über Proxy-Variablen (Postleitzahl, Beruf, etc.)
Gerade mit Blick auf EU-AI-Act und österreichisches Gleichbehandlungsrecht ist das kein Nebenthema, sondern ein Compliance-Kriterium.
1.4 Urheberrecht und geistiges Eigentum
Generierte Texte, Bilder oder Code können geschützte Werke „zu nahe“ imitieren. Für Versicherer ist das vor allem relevant bei:
- Marketingtexten (Web, Kampagnen, Social Media)
- Vertrags- und Produktdokumentationen
- Internen Wissensdatenbanken
Wer hier ohne Richtlinien arbeitet, riskiert Abmahnungen und langwierige Rechtsstreitigkeiten.
2. Spezifische LLM-Risiken in der Versicherungsbranche
In Versicherungen verschärft sich das Risiko, weil fast alles über Text läuft: Polizzen, Bedingungen, Schadenberichte, Gutachten, E-Mails, Chat-Verläufe. LLMs sitzen damit direkt am Herz der Wertschöpfung.
2.1 Underwriting und Schaden: Grauzonen statt Klarheit
Pretrained LLMs können schöne, aber inhaltlich falsche Geschichten erzeugen:
- Ein Underwriting-Assistenzsystem interpretiert Angaben aus einem Gewerbeantrag falsch und schlägt zu niedrige Prämien vor.
- Ein KI-gestütztes Schaden-Tool fasst Gutachten so zusammen, dass wichtige Ausschlüsse „weggekürzt“ werden.
Ergebnis: Underwriting-Ambiguität – es entsteht Unsicherheit, ob Entscheidungen auf korrekter Basis getroffen wurden. Im Ernstfall zahlt der Versicherer Leistungen, die nie kalkuliert waren.
2.2 Regulatorik und Aufsicht (FMA, EIOPA, EU AI Act)
Versicherungen sind hoch reguliert. LLM-Einsatz berührt u.a.:
- Produkthaftung und Beratungsdokumentation (IDD)
- Modellrisikomanagement im Rahmen von Governance-Richtlinien
- Transparenzpflichten gegenüber Kund:innen und Aufsicht
Eine „Black-Box-KI“, deren Herleitung niemand erklären kann, ist in diesem Umfeld de facto nicht akzeptabel – weder für die FMA noch für interne Revision und Compliance.
2.3 Skalierung: Sicherheit kostet – Nichtstun aber auch
Viele Häuser starten mit einem internen Pilot (z.B. „Copilot“ für Sachbearbeiter:innen) und landen dann schnell bei:
- hohen Infrastrukturkosten für Modellbetrieb
- komplexem Rechte- und Rollenkonzept
- steigenden Aufwänden für Monitoring, Retraining und Security
Wer das nicht von Anfang an mitdenkt, produziert Wildwuchs: Parallelprojekte, Schatten-IT, unklare Verantwortlichkeiten – und damit operatives Risiko.
3. Was andere Versicherer tun – und was Österreich daraus lernen kann
Ein Blick auf internationale Player zeigt, wohin die Reise geht.
3.1 Beispiel AXA: Inhouse-GPT statt Public-Cloud-Experiment
AXA hat gemeinsam mit einem großen Tech-Partner ein internes GPT aufgebaut:
- Nur für Mitarbeitende zugänglich
- Datenverarbeitung in kontrollierter Cloud-Umgebung
- Klare Governance, welche Inhalte und Use Cases erlaubt sind
Funktionen wie Textzusammenfassung, Übersetzung, Code-Hilfe und Dokumentenanalyse werden dort bereits breit im Backoffice und in der IT eingesetzt.
Für österreichische Versicherer lassen sich drei Lehren ableiten:
- „Private by Design“: Eigene, abgeschottete KI-Umgebungen schaffen, keine wilden Tests mit öffentlichen Tools im Masseneinsatz.
- Pilotieren mit Fokus: Lieber drei klar definierte High-Impact-Use-Cases (z.B. Schaden, Kundenservice, Produktdokumente) als 20 verstreute Spielwiesen.
- Früh Mitarbeiter:innen einbinden: Akzeptanz und Produktivität hängen massiv davon ab, ob Teams das System als Unterstützung und nicht als Bedrohung erleben.
4. Konkrete Taktiken, um LLM-Risiken zu minimieren
Die gute Nachricht: Es gibt erprobte Muster, mit denen sich LLMs sicher in der Versicherungs-IT verankern lassen – ohne den Innovationsfaden zu verlieren.
4.1 Verantwortliche KI-Governance aufsetzen
Ein Responsible-AI-Rahmenwerk ist kein „Nice-to-have“, sondern Pflicht. In der Praxis bewährt sich:
- Klare Richtlinien zu Datenverwendung, Fairness und Transparenz
- Ein interdisziplinäres Gremium (Fachbereich, IT, Compliance, Recht)
- Regelmäßige Bias- und Performance-Audits der Modelle
Für österreichische Häuser bietet es sich an, diese Governance eng an bestehende Strukturen wie Risikomanagement, OpRisk und Modellgovernance anzudocken. So wird KI nicht als Fremdkörper, sondern als Teil der bestehenden Kontrolllandschaft behandelt.
4.2 Transparente und erklärbare Empfehlungen
LLM-basierte Empfehlungssysteme – z.B. für personalisierte Tarife oder Cross-Selling im Kundenservice – müssen nachvollziehbar sein:
- Jede Empfehlung enthält eine kurze Begründung („Warum wird dieses Produkt vorgeschlagen?“)
- Relevante Parameter werden sichtbar gemacht (Lebenssituation, bestehende Deckungen, Risikoprofil)
- Fachanwender:innen können Feedback geben („zutreffend“, „nicht zutreffend“, Kommentar)
So lassen sich Halluzinationen und Fehlinterpretationen systematisch reduzieren. Parallel entsteht ein Fortbildungseffekt für neue Mitarbeiter:innen, weil sie die Logik guter Beratung „mitlernen“.
4.3 Mensch-in-der-Schleife („Human in the Loop“)
Der aus meiner Sicht praktikabelste Ansatz für 2025: KI unterstützt, der Mensch entscheidet.
Typische Muster in österreichischen Versicherungen:
- Schadenbearbeiter:innen erhalten KI-basierte Vorschläge, entscheiden aber selbst über Deckung und Regulierungsbetrag.
- Underwriter bekommen Risiko-Zusammenfassungen aus langen Dokumenten, prüfen diese jedoch vor Zeichnung.
- Callcenter-Mitarbeiter:innen sehen Next-Best-Action-Empfehlungen, wählen aber manuell, was sie dem Kunden anbieten.
So bleiben Beratungshaftung und finale Entscheidung klar beim Menschen, während die KI Routinearbeit abnimmt und Muster in großen Datenmengen erkennt.
4.4 Technische Sicherheitsmaßnahmen
Neben Governance braucht es ein solides technisches Fundament:
- Abgeschottete LLM-Instanzen (on-prem oder EU-konforme Cloud)
- Strikte Zugriffskonzepte und Rollenmodelle
- Logging aller Anfragen und Antworten (für Revision und FMA-Anfragen)
- Content-Filter, die problematische Ausgaben blockieren (Diskriminierung, personenbezogene Daten, rechtlich unzulässige Antworten)
Gerade in Verbindung mit sensiblen Bereichen wie Betrugsanalytik oder medizinischen Daten in der Krankenversicherung ist diese Schicht unverzichtbar.
5. Von GenAI zu „Synth AI“: Der nächste Schritt für Versicherer
Viele aktuelle Projekte nutzen Generative KI primär für Textproduktion: Mails formulieren, FAQ beantworten, Schadenbriefe erstellen. Das ist nett – aber der eigentliche Hebel liegt eine Stufe darüber.
5.1 Synth AI – vom Textgenerator zur Entscheidungsmaschine
Unter „Synth AI“ versteht man Systeme, die nicht nur Inhalte erzeugen, sondern vor allem Informationen verdichten und bewertbare Handlungsempfehlungen liefern. Für Versicherer heißt das konkret:
- Aus hunderten Seiten Schadenakten eine zweiabsätzige Entscheidungsgrundlage erstellen
- Aus gesamten Vertragsportfolios Risikocluster und Tarifanomalien identifizieren
- Für jede Kundin im Bestand tagesaktuell eine Next-Best-Product- oder Next-Best-Action-Empfehlung generieren
Der Mehrwert entsteht nicht durch längere Texte, sondern durch präzise, kontextbezogene Empfehlungen.
5.2 Praktische Einsatzfelder in Österreich
Typische Synth-AI-Use-Cases im österreichischen Marktumfeld:
- Schadenbearbeitung: Verdichtung von Gutachten, automatisierte Prüfung gegen Bedingungen, Empfehlung von Rückfragen oder Sofortzahlung.
- Risikobewertung in KMU: Zusammenfassung externer Informationen (Branche, Standort, Historie) und Vorschlag eines risikoadäquaten Rahmens.
- Betrugserkennung: Kombination aus Anomalieerkennung und LLM-gestützter Bewertung der Plausibilität von Schadenmeldungen.
- Personalisierte Tarife: Synthese aus Fahrverhalten, Schadenhistorie und Lebenssituation für flexible Preis-/Leistungsmodelle.
Wer diese zweite Welle früh nutzt, verschafft sich im österreichischen Markt einen strukturellen Vorteil – in Kosten, Servicequalität und Vertrieb.
Fazit: Wie österreichische Versicherer jetzt sinnvoll starten
Generative KI und LLMs werden sich in der Versicherungsbranche genauso durchsetzen wie einst Vergleichsportale oder Telematik. Die Frage ist nicht „ob“, sondern wie kontrolliert der Einstieg erfolgt.
Wer in Österreich heute beginnt, sollte:
- Klein, aber strukturiert starten – mit klar definierten, risikoarmen Use Cases in Schaden, Kundendienst oder Backoffice.
- Responsible-AI- und Governance-Strukturen von Anfang an mitdenken – nicht erst, wenn die FMA klopft.
- Menschliche Expertise bewusst einbauen – Human-in-the-Loop ist 2025 der richtige Standard.
- Auf Synth-AI-Potenzial schauen, nicht nur auf Textgenerierung – Wert entsteht durch bessere Entscheidungen.
Dieser Beitrag gehört zur Reihe „KI für österreichische Versicherungen: InsurTech“, in der wir zeigen, wie KI konkret in Schadenbearbeitung, Risikobertung, Betrugserkennung und personalisierten Tarifen eingesetzt werden kann. Wenn Sie prüfen wollen, welche LLM-Use-Cases bei Ihnen realistisch, sicher und wirtschaftlich spannend sind, ist jetzt der richtige Zeitpunkt, intern den nächsten Schritt zu planen.