Wie österreichische Versicherer Generative KI und LLMs produktiv nutzen können – mit klaren Leitplanken für Datenschutz, Fairness und Aufsichtskonformität.
Warum österreichische Versicherer bei GenAI genau hinschauen müssen
2023 hat ein großer europäischer Versicherer intern gemeldet, dass Mitarbeitende vertrauliche Schadendaten in ein öffentliches KI-Tool kopiert hatten – nur um „schnell den Kundenbrief formulieren zu lassen“. Kein böser Wille, aber ein echtes Compliance‑ und Datenschutzrisiko.
Genau an diesem Punkt stehen aktuell viele österreichische Versicherungen: Generative KI und Large Language Models (LLMs) versprechen enorme Effizienzgewinne in Schadenbearbeitung, Risikobewertung, Betrugserkennung und bei personalisierten Tarifen. Gleichzeitig sind Haftung, Aufsicht (FMA, EIOPA), DSGVO und bald der EU AI Act sehr real.
In diesem Beitrag aus unserer Reihe „KI für österreichische Versicherungen: InsurTech“ geht es deshalb nicht darum, ob GenAI kommt – sondern wie Sie sie so einsetzen, dass Chancen überwiegen und Risiken beherrschbar bleiben.
1. Generative KI: Die wichtigsten allgemeinen Risiken
Generative KI erzeugt neue Inhalte – Texte, Bilder, Code – auf Basis vorhandener Daten. Genau diese Stärke erzeugt die ersten Stolpersteine, die jedes österreichische Versicherungsunternehmen verstehen sollte.
Halluzinationen: Wenn das Modell „erfindet“
LLMs antworten immer – auch dann, wenn sie es nicht wissen. Das führt zu sogenannten Halluzinationen:
- frei erfundene Rechtsgrundlagen in einem Schreiben an Kund:innen
- falsche Summen oder Bedingungen in einem Tarifvorschlag
- ausgedachte Gerichtsurteile in einer internen Fachauskunft
Für eine Versicherung ist das mehr als peinlich: Es kann rechtlich bindende Kommunikation verfälschen und im schlimmsten Fall zu Schadensersatzforderungen führen.
Datenschutz und Vertraulichkeit
Viele Generative‑KI‑Modelle wurden auf großen öffentlichen Datenmengen trainiert. Wenn Mitarbeitende zusätzlich Kundendaten in offene Tools tippen, drohen:
- DSGVO‑Verstöße (insbesondere Art. 5, 6, 32)
- Geheimnisbruch nach § 11 Versicherungsaufsichtsgesetz
- Reputationsschäden, wenn Fälle öffentlich werden
Der Samsung‑Vorfall – bei dem Quellcode über ein öffentliches KI‑Tool nach außen gelangte – ist nur ein prominentes Beispiel.
Verstärkung von Bias
Wenn Trainingsdaten Vorurteile enthalten, spiegelt das Modell diese wider – und verstärkt sie oft noch. Für Versicherungen ist das heikel, weil Diskriminierung bei Prämien und Leistungen in Europa streng reguliert ist.
Typische kritische Merkmale:
- Geschlecht und Alter
- Region / Postleitzahl
- sozioökonomische Faktoren
Urheberrecht
Generative KI kann Inhalte erzeugen, die bestehenden Werken stark ähneln. Für Versicherer ist das zwar weniger kritisch als für Medienunternehmen – aber bei Marketingmaterial, Kundenbroschüren und Kampagnen sollten Sie trotzdem prüfen, ob Rechte Dritter tangiert werden.
2. Spezielle Risiken von LLMs im Versicherungskontext
In der Versicherung ist fast alles Sprache: Polizzen, Bedingungen, Schadenmeldungen, Rückfragen, Gutachten. Genau hier sind LLMs besonders stark – und besonders riskant, wenn sie unkontrolliert eingesetzt werden.
Underwriting: Mehr Komplexität, mehr Unschärfe
LLMs können komplexe Risikobeschreibungen formulieren oder zusammenfassen. Das klingt zunächst hilfreich – schafft aber neue Probleme:
- Unklare Formulierungen in Risikoberichten erschweren die Tarifierung
- Falsche Gewichtung von Risikofaktoren kann zu Unter- oder Überprämierung führen
- Intransparente Ablehnungen sind gegenüber Kund:innen und Aufsicht kaum erklärbar
Gerade im industriellen Geschäft mit komplexen Risikoportfolios ist das gefährlich.
Regulatorische Compliance (FMA, EIOPA, EU AI Act)
Versicherung ist ein Hochregulierungssektor. Wer LLMs ungeprĂĽft im Underwriting, Pricing oder in der Schadenregulierung einsetzt, riskiert:
- Konflikte mit Governance‑Vorgaben (FMA, EIOPA‑Leitlinien zu Cloud & Outsourcing)
- Probleme mit Dokumentations‑ und Nachvollziehbarkeitspflichten
- zusätzliche Anforderungen durch den kommenden EU AI Act für „High‑Risk‑Systeme“
Fairness und Diskriminierung
Wenn ein LLM Vorschläge für Vertragsannahmen, Schadenregulierung oder Cross‑Selling generiert, ist eine faire Behandlung aller Kund:innengruppen Pflicht. Andernfalls drohen:
- aufsichtsrechtliche MaĂźnahmen
- Sammelklagen oder Verbandsklagen
- massiver Image‑Schaden in einem ohnehin skeptischen Markt
Skalierung und Betriebssicherheit
LLMs im produktiven Einsatz sind kein Pilotprojekt mehr, sondern Teil der Kern‑IT:
- regelmäßige Updates und Retrainings sind nötig
- Security‑Maßnahmen (Zugriff, Protokollierung, Verschlüsselung) müssen skalieren
- Performance und Latenz wirken direkt auf Kundenerlebnis und Schadenbearbeitungszeiten
Transparenz und Erklärbarkeit
Versicherte, Vertrieb, Aufsicht und interne Revision erwarten nachvollziehbare Entscheidungen. Ein „Black Box‑LLM“, das Empfehlungen ausgibt ohne Begründung, ist auf Dauer nicht tragfähig.
3. Was Branchenführer vormachen – und was Österreich lernen kann
Mehrere internationale Versicherer sind bereits einen Schritt weiter und nutzen LLMs in kontrollierten Umgebungen.
Ein prominentes Beispiel: Ein großer europäischer Konzern hat zusammen mit einem Hyperscaler eine interne GPT‑Plattform aufgebaut. Mitarbeitende können dort sicher Texte zusammenfassen, E‑Mails formulieren, Unterlagen übersetzen oder Code analysieren – alles in einer datenschutzkonformen Cloud‑Umgebung, strikt getrennt von öffentlichen KI‑Diensten.
Was daran spannend ist:
- Start mit einem klar abgegrenzten Nutzerkreis (z. B. IT, Operations)
- schrittweise Ausweitung auf weitere Fachbereiche
- interne Richtlinien & Schulungen begleiten den Roll‑out
Für österreichische Versicherer bedeutet das:
Der richtige Weg ist nicht Verbot, sondern kontrollierte Erlaubnis – mit klaren Leitplanken.
4. Konkrete Taktiken, um LLM‑Risiken zu beherrschen
Die gute Nachricht: Die meisten Risiken lassen sich systematisch reduzieren, wenn Sie einige Grundprinzipien beherzigen. Hier die wichtigsten Bausteine fĂĽr Versicherungen in Ă–sterreich.
4.1 Responsible‑AI‑Rahmenwerk etablieren
Jedes LLM‑Projekt sollte in ein Ethik‑ und Governance‑Framework eingebettet sein. Zentrale Elemente:
- klare Zweckdefinition: WofĂĽr wird das LLM genutzt, wofĂĽr explizit nicht?
- Daten‑Governance: welche Datenquellen, welche Pseudonymisierung/Anonymisierung?
- regelmäßige Bias‑Analysen auf relevanten Merkmalen
- definierte KPIs (z. B. Halluzinationsrate, Bearbeitungszeit, Fehlerquote)
Unternehmen mit bestehenden Data‑Analytics‑Teams können hier anknüpfen und diese Governance auf KI ausweiten.
4.2 Transparente und erklärbare Empfehlungen erzwingen
LLM‑gestützte Empfehlungen – z. B. in Schadenbearbeitung oder Cross‑Selling – sollten nie als „magische Antwort“ erscheinen, sondern immer mit Begründung.
Praxisnah heiĂźt das:
- jede Empfehlung enthält konkrete Hinweise, z. B. relevante Klauseln, frühere Schäden, Kundensituation
- Mitarbeitende können die Informationsquelle einsehen (z. B. welches Dokument, welcher Absatz)
- Rückmeldungen („passt / passt nicht“) fließen als Feedback in die Modelle ein
So sinkt die Halluzinationsgefahr, und gleichzeitig bauen Sie das Vertrauen von Sachbearbeiter:innen und Vertrieb auf.
4.3 Human‑in‑the‑Loop als Standard
Der effizienteste Weg heute ist eine Partnerschaft zwischen KI und Menschen, nicht Vollautomatisierung um jeden Preis.
Sinnvolle Einsatzmuster:
- Vorschlagssysteme: LLM generiert AntwortentwĂĽrfe, der Mensch prĂĽft und finalisiert
- Priorisierung: KI schlägt vor, welche Schäden oder Risikoprüfungen zuerst bearbeitet werden sollten
- Coaching: KI erklärt neuen Mitarbeitenden Policen, Prozesse und Produkte in einfacher Sprache
Gerade in komplexen oder heiklen Fällen (Personenschäden, Großschäden, Leistungsverweigerungen) sollte ein erfahrener Mensch immer die letzte Entscheidung treffen.
4.4 Technische SicherheitsmaĂźnahmen und Architektur
Ein sicherer LLM‑Einsatz in der Versicherung braucht eine passende Architektur:
- Nutzung von Private‑Cloud‑ oder On‑Premise‑Modellen statt öffentlicher Consumer‑Dienste
- Role‑Based Access Control: wer darf welche KI‑Funktionen nutzen?
- Protokollierung aller Anfragen und Antworten zur Revisionssicherheit
- Content‑Filter gegen das Ausspielen sensibler oder verbotener Inhalte
Für österreichische Häuser mit bestehenden Core‑Systemen (Bestandsführung, Schaden, Provision) lohnt sich ein API‑basierter Ansatz, bei dem das LLM als Service in bestehende Workflows integriert wird.
4.5 Anwendungsfälle priorisieren, die schnell Nutzen bringen
Um Akzeptanz aufzubauen und Management wie Aufsicht zu überzeugen, empfiehlt sich eine Fokussierung auf Low‑Risk‑High‑Impact‑Use‑Cases, zum Beispiel:
- Zusammenfassung langer Schadenakten fĂĽr Sachbearbeiter:innen
- Entwürfe für Kundenkommunikation (z. B. Rückfragen, fehlende Unterlagen) mit menschlicher Freigabe
- Übersetzung von Bedingungen und Gutachten (DE/EN/CS/HR/…) im CEE‑Kontext
- Unterstützung im Vertrieb: Vorschläge für personalisierte Tarife auf Basis vorhandener Kundendaten – ohne automatische Bindung
Studien zeigen, dass KI‑Assistenz in Service und Backoffice bis zu 14 % Bearbeitungszeit spart und die Einarbeitungszeit neuer Mitarbeitender um den Faktor 3 verkürzen kann. Genau diese Größenordnung ist auch für österreichische Versicherer realistisch.
5. Von GenAI zu SynthAI: Wohin sich Versicherungs‑KI entwickelt
Aktuell nutzen viele Unternehmen GenAI vor allem für Textproduktion – E‑Mails, Notizen, Social‑Media‑Posts. Das ist hilfreich, aber für Versicherungen nur die erste Welle.
Die nächste Entwicklungsstufe wird oft als SynthAI beschrieben: Systeme, die nicht nur Inhalte generieren, sondern riesige Datenmengen sinnvoll verdichten und daraus konkrete Entscheidungsvorschläge ableiten.
Für österreichische Versicherer eröffnen sich damit neue Szenarien:
- Risikobewertung: SynthAI verdichtet externe Daten (Wetter, Geodaten, Gebäudedaten) und interne Schadenhistorien zu klaren Risikokennzahlen.
- Betrugserkennung: Muster aus vielen Sparten und Kanälen werden kombiniert, um verdächtige Schadenmeldungen früh zu markieren.
- Personalisierte Tarife: Kund:innen erhalten Vorschläge, die sich dynamisch an Lebenssituation und Verhalten orientieren – nachvollziehbar erklärt.
Die Realität ist: Wer heute damit beginnt, kontrolliert GenAI in internen Prozessen zu etablieren, schafft die Grundlage, um morgen SynthAI für echte Entscheidungsunterstützung in Underwriting, Pricing und Schadensteuerung zu nutzen.
Fazit: Jetzt starten – aber mit klaren Leitplanken
Österreichische Versicherer stehen unter Druck: Kund:innen erwarten digitale, schnelle Services, die EU‑Regulatorik zieht an, und internationale Player setzen stark auf KI. Wer Generative AI und LLMs ignoriert, verliert mittelfristig an Wettbewerbsfähigkeit.
Die gute Nachricht: Mit einem klaren Responsible‑AI‑Rahmen, transparenter Empfehlungserklärung, Human‑in‑the‑Loop und einer soliden Sicherheitsarchitektur lassen sich die typischen Risiken kontrollieren. Gleichzeitig profitieren Sie in Schadenbearbeitung, Risikobewertung, Betrugserkennung und bei personalisierten Tarifen schon heute von messbaren Effizienzgewinnen.
Wenn Sie für Ihre Organisation klären wollen, welche LLM‑Use‑Cases sich 2026 in Österreich sicher und rentabel umsetzen lassen, ist jetzt der richtige Zeitpunkt, eine interne Roadmap zu definieren – bevor die nächste Ausschreibungsrunde oder Tarifoffensive ansteht.