GenAI im Versicherungswesen: Weg aus dem Build-vs-Buy-Dilemma

KI für österreichische Versicherungen: InsurTech••By 3L3C

Generative KI beendet das Build‑vs‑Buy‑Dilemma in Versicherungen. Warum konfigurierte LLM‑Plattformen der Schlüssel für Schaden, Risiko, Betrug und Tarife sind.

Generative KIInsurTechVersicherungsinnovationLarge Language ModelsSchadenbearbeitungRisikomanagementBetrugserkennung
Share:

Warum „Build vs. Buy“ für KI in Versicherungen ausläuft

Österreichische Versicherer investieren 2025 so viel in KI wie noch nie – gleichzeitig scheitern laut Branchenumfragen über 60 % der Initiativen an langen Projektdauern, fehlenden Skills oder Regulatorik. Most companies get this wrong: Sie diskutieren immer noch „Bauen wir selbst oder kaufen wir eine Lösung?“, während sich das Spielfeld längst verschoben hat.

Hier ist der Punkt: Mit Generativer KI und Large Language Models (LLMs) gibt es neben „Build“ und „Buy“ einen dritten, deutlich stärkeren Weg: Konfigurieren von spezialisierten, LLM‑first InsurTech‑Lösungen. Genau dieser Ansatz ist für die Serie „KI für österreichische Versicherungen: InsurTech“ hochrelevant – ob es um Schadenbearbeitung, Risikobewertung, Betrugserkennung oder personalisierte Tarife geht.

In diesem Artikel schauen wir uns an:

  • warum das klassische Build‑vs‑Buy‑Denken Versicherer ausbremst,
  • wo die Stärken und Schwächen beider Ansätze liegen,
  • wie LLM‑basierte Plattformen das Dilemma auflösen,
  • und wie österreichische Häuser ganz konkret vorgehen können, um 2026 produktive KI‑Anwendungen am Markt zu haben – statt weiterer PowerPoint‑Roadmaps.

1. Der klassische „Buy“-Ansatz: schnell, günstig – aber oft zu starr

Der Kauf von Standard‑InsurTech‑Lösungen bringt Versicherer rasch an den Start, stößt aber bei Differenzierung und Integration an Grenzen.

Vorteile von Off‑the‑Shelf‑Lösungen

Viele Häuser in Wien, Graz oder Linz haben in den letzten Jahren genau damit begonnen:

  1. Speed to Market
    Fertige Lösungen – etwa für Fotoanalyse bei Kfz‑Schäden oder Chatbots im Kundenservice – können oft innerhalb von 8–12 Wochen live gehen. Im Vergleich dazu dauern Eigenentwicklungen in Konzernen leicht 3–4 Jahre, bis wirklich produktive Volumina laufen.

  2. Kostenersparnis
    Ein spezialisierter InsurTech‑Anbieter investiert häufig zweistellige Millionenbeträge in seine Plattform. Für einen einzelnen österreichischen Versicherer wäre dieses Budget für nur eine Anwendung kaum durchsetzbar. Durch das „Mitsurfen“ auf einer bestehenden Plattform verteilen sich die F&E‑Kosten.

  3. Branchen‑Know‑how eingebaut
    Gute InsurTechs bringen Fachlogik, regulatorische Anforderungen und Best Practices bereits mit: IDD‑Beratungsdokumentation, DSGVO‑Mechanismen, Audit‑Trails, oft sogar an lokale Marktbesonderheiten anpassbar. Das reduziert Risiko und Projektaufwand massiv.

Die Kehrseite: Standard bleibt eben Standard

Für österreichische Versicherer, die sich über Kundenerlebnis und Produktlogik differenzieren wollen, zeigen sich schnell Schwächen:

  • Begrenzte Anpassbarkeit der Prozesse (Schadenstrecken, Underwriting‑Regeln, Tarifierung).
  • Abhängigkeit vom Release‑Zyklus des Anbieters – eigene Ideen warten Monate.
  • Schwierige Integration in historisch gewachsene Kernsysteme (Host, SAP FS‑CD, In‑House‑Lösungen).

Das Ergebnis: Man ist zwar schnell live, aber die Lösung fühlt sich eher nach „Fremdkörper“ als nach strategischem Asset an.


2. Der „Build“-Ansatz: maximale Kontrolle, maximales Risiko

Eigenentwicklung gibt volle Hoheit über Technologie und Daten – kostet aber Zeit, Geld und Nerven.

Warum Versicherer trotzdem gern selbst bauen

Viele österreichische CIOs und CDOs argumentieren völlig nachvollziehbar:

  1. Unbegrenzte Individualisierung
    Wer eine KI‑Plattform selbst entwickelt, kann jeden Schritt entlang der Wertschöpfungskette exakt an die eigenen Besonderheiten anpassen: vom Underwriting für KMU‑Betriebe im Tiroler Tourismus bis zur Schadenabwicklung in der Landwirtschaft.

  2. Innovation im Kern der Organisation
    Inhouse‑Build zwingt, intern Digitalkompetenz und Data‑Science‑Teams aufzubauen. Das stärkt langfristig die Wettbewerbsfähigkeit.

  3. Volle Kontrolle über Sicherheits- und Compliance‑Anforderungen
    Gerade bei Themen wie DSGVO, Versicherungsaufsichtsgesetz, FMA‑Rundschreiben oder EIOPA‑Leitlinien fühlen sich viele Häuser wohler, wenn kein externer Black‑Box‑Dienst zentral im Kernprozess hängt.

  4. Langfristiger strategischer Wert
    Eine eigene Plattform kann zur strategischen Infrastruktur werden, auf der weitere KI‑Use‑Cases aufgebaut werden: von Betrugserkennung über Next‑Best‑Offer bis zu Voice‑Bots im Call Center.

Warum der Build‑Weg in der Praxis oft scheitert

Die Realität in vielen Versicherungen sieht allerdings so aus:

  • Projekte ziehen sich mehrere Jahre, während Wettbewerber bereits live testen.
  • Data‑Science‑Teams werden zu Flaschenhälsen, weil sie jeden Use Case individuell „trainieren“ mĂĽssen.
  • Der Technologie‑Stack veraltet, bevor der Rollout wirklich breit erfolgt.

Viele Häuser landen irgendwann bei einer stillschweigenden Einsicht: Rein internes Bauen skaliert nicht, zumindest nicht alleine. Genau hier setzt die neue Option an.


3. Der dritte Weg: Konfigurieren von LLM‑first‑InsurTech‑Plattformen

Generative KI und Large Language Models machen aus dem „Entweder‑oder“ von Build vs. Buy ein „Konfiguriere, was zu dir passt“.

Der zentrale Unterschied: Moderne InsurTech‑Plattformen basieren auf vortrainierten, multimodalen LLMs. Diese Modelle können Text, Bilder, teils sogar Sprache und strukturierte Daten kombinieren – ohne dass jeder Versicherer selbst ein Grundmodell trainieren muss.

3.1 Konfiguration statt Modelltraining

FrĂĽher bedeutete jeder neue Use Case:

  • Daten sammeln
  • Modell designen
  • Modell trainieren
  • Modell deployen

Heute läuft es anders:
Die Grundintelligenz ist bereits da. Versicherer müssen vor allem konfigurieren, nicht mehr „von Null weg“ entwickeln:

  • Prompts und Policies definieren (z. B. wie das System beraten darf, welche Aussagen untersagt sind).
  • Geschäftsregeln und Tarifierungslogik auf der Plattform abbilden.
  • Schnittstellen zur IT‑Landschaft konfigurieren (BestandsfĂĽhrung, CRM, DWH, Portal).

Die eigentliche KI‑Logik – Sprachverständnis, Bilderkennung, Zusammenfassung, Dialogführung – ist bereits „trainiert once and for all“.

3.2 Flexibilität & Skalierbarkeit für Versicherer

Gut gemachte LLM‑first‑Plattformen bieten:

  • Schnellen Start mit vordefinierten Journeys (z. B. Kfz‑Schadenmeldung, Haushaltsversicherung, Unfallleistung).
  • Hohe Anpassbarkeit fĂĽr lokale Besonderheiten: österreichisches Recht, Maklervertrieb, Kollektivverträge.
  • Einfache Erweiterbarkeit: Neue Produkte, neue Kanäle, neue Sprachen – ohne jedes Mal ein neues Modell zu bauen.

In der Praxis heißt das: Ein Versicherer kann in wenigen Monaten einen ersten Use Case live bringen und anschließend auf derselben Plattform weitere Szenarien nachziehen – Schaden, Vertrieb, Service, Risikoprüfung.

3.3 Multimodalität verändert Teamstrukturen

LLMs, die Text, Bilder und strukturierte Daten gleichzeitig verarbeiten, haben einen spannenden Nebeneffekt:

  • Die Trennung zwischen klassischer Data Science (z. B. Pricing‑Modelle) und NLP‑Spezialisten wird weniger strikt.
  • Es entsteht ein neues Profil: LLMOps und Prompt‑Engineers, die eng mit Fachbereichen (Schaden, Aktuariat, Vertrieb) zusammenarbeiten.

Für österreichische Versicherer heißt das:
Statt 10 hochspezialisierte KI‑Teams aufzubauen, reicht oft ein kleiner Kern aus LLM‑Experten, die gemeinsam mit Fachbereichen Konfigurationen und Prompts gestalten.

3.4 Wertverschiebung hin zur User Experience

Wenn die KI‑Intelligenz „Commodity“ wird, verschiebt sich die Wertschöpfung:

Der wahre Wettbewerbsvorteil liegt nicht mehr im Modell, sondern in der Erfahrung, die Mitarbeitende und Kund:innen mit der KI haben.

Drei Hebel sind entscheidend:

  1. UX fĂĽr Mitarbeitende:

    • Schadenbearbeiter erhalten kontextbezogene Vorschläge, statt durch fĂĽnf Systeme zu klicken.
    • Underwriter bekommen voll aufbereitete Dossiers inklusive Risikohinweisen.
  2. UX fĂĽr Kund:innen und Vertriebspartner:

    • Digitale Strecken, die sich wie ein Gespräch anfĂĽhlen, nicht wie ein Formular.
    • Hyperpersonalisierte Produktempfehlungen, die wirklich zur Lebenssituation passen.
  3. Nahtlose Integration in bestehende Systeme:
    Die beste KI ist für Nutzer dann „unsichtbar“, wenn sie genau im bestehenden Arbeitsfluss auftaucht: im Maklerportal, im Call‑Center‑Desktop, in der Schadenmaske.


4. Konkrete Einsatzszenarien für österreichische Versicherer

Die neue Konfigurationslogik lässt sich direkt auf zentrale Themen der Serie „KI für österreichische Versicherungen“ anwenden.

4.1 Schadenbearbeitung

  • Automatisierte Bildanalyse bei Kfz‑Schäden mittels multimodaler Modelle.
  • LLM‑Assistent, der Schadenmeldungen aus E‑Mails, PDFs oder Sprache strukturiert erfasst.
  • Vorschlag der nächsten Prozessschritte (Regulierungsentscheidung innerhalb der Vollmacht, RĂĽckfrage, Gutachten notwendig etc.).

Statt selbst ein Bilderkennungsmodell zu entwickeln oder eine starre Point‑Solution zu kaufen, konfiguriert der Versicherer:

  • welche Schadenarten unterstĂĽtzt werden,
  • welche Toleranzen erlaubt sind,
  • welche Eskalationspfade gelten.

4.2 Risikobewertung und Tarifierung

  • LLMs fassen komplexe Antragsunterlagen zusammen und heben kritische Punkte hervor.
  • Fachregeln werden in einer Low‑Code‑Oberfläche gepflegt, während die KI die unstrukturierten Daten interpretiert.

Das Aktuariat behält die Hoheit über Pricing‑Modelle, nutzt aber LLM‑Fähigkeiten, um Datenqualität und Geschwindigkeit zu verbessern.

4.3 Betrugserkennung

  • Kombination aus klassischen Scoring‑Modellen und LLMs, die Auffälligkeiten in Texten erkennen (z. B. wiederkehrende Formulierungen in Betrugsmustern).
  • Automatische Erzeugung von Investigations‑Dossiers fĂĽr die Betrugsabteilung.

Wichtig: Konfiguration ermöglicht es, klare Grenzen zu ziehen, was die KI darf – und was nicht. Verdachtsmomente bleiben immer menschlich zu beurteilen.

4.4 Personalisierte Tarife und Beratung

  • Empfehlung von Produkten und Deckungen auf Basis von Kundendaten, Interaktionshistorie und externen Signalen.
  • UnterstĂĽtzung von Agent:innen als „Copilot“ im Beratungsgespräch – mit Textbausteinen, Erklärungen und Hinweisen auf Cross‑ und Upselling‑Potenziale.

Gerade hier zeigt sich der Vorteil spezialisierter LLM‑Plattformen: Sie verbinden Domänenwissen, Regulatorik und Generative‑AI‑Fähigkeiten zu einem Werkzeug, das Vertrieb und Marketing tatsächlich nutzen wollen.


5. Wie österreichische Versicherer jetzt vorgehen sollten

Der sinnvolle Weg führt weder in reine Standardsoftware noch in vollständige Eigenentwicklung – sondern in eine Partnerschaft mit spezialisierten, GenAI‑first‑Anbietern, die sich konfigurieren lassen.

Ein pragmatischer Fahrplan:

  1. Use Cases priorisieren
    Drei Kriterien haben sich bewährt:

    • Hohe Geschäftswirkung (Kosten, Umsatz, Kundenerlebnis),
    • klare Datenbasis,
    • realistische Umsetzbarkeit innerhalb von 6–9 Monaten.
  2. LLM‑fähige Plattform auswählen
    Wichtige Fragen im Auswahlprozess:

    • Ist die Lösung explizit auf Versicherung spezialisiert?
    • Wie wird Datenschutz und Modellzugriff geregelt (DSGVO, EU AI Act, FMA‑Anforderungen)?
    • Wie stark kann das System durch Low‑Code/No‑Code von Fachbereichen konfiguriert werden?
    • Sind multimodale Use Cases (Text, Bild, Sprache) möglich?
  3. Gemeinsames Delivery‑Team aufbauen

    • Fachbereich (z. B. Schaden oder Vertrieb),
    • IT/Architektur,
    • LLM‑/Prompt‑Expert:innen,
    • Anbieter mit Customer‑Success‑Team.
  4. In 8–12 Wochen einen Pilot live bringen
    Kein „POC im Labor“, sondern echte Benutzer, echte Daten, echter Nutzen.
    Erfolgskriterien vorab festlegen: z. B. Bearbeitungszeit -30 %, First‑Contact‑Resolution +15 %, Beraterzufriedenheit +20 Punkte.

  5. Skalierung ĂĽber Konfiguration statt neue Projekte
    Wenn die Plattform steht, werden weitere Use Cases wie „Konfigurationen“ behandelt, nicht wie neue Großprojekte. Das ist der Hebel, um aus einzelnen Piloten eine wirkliche KI‑Strategie zu machen.


Fazit: Das Build‑vs‑Buy‑Dilemma ist vorbei – wer konfiguriert, gewinnt

Der Markt für KI in österreichischen Versicherungen dreht sich 2025 nicht mehr um die Frage: „Bauen wir unsere eigene GenAI oder kaufen wir eine fertige Lösung?“ Die Realität ist klar:

  • Eigene LLM‑Grundmodelle zu bauen ist fĂĽr Einzelhäuser wirtschaftlich kaum sinnvoll.
  • Starre Standardlösungen ohne echte Konfigurierbarkeit reichen nicht mehr, um sich im Wettbewerb zu behaupten.

Der zukunftsfähige Weg führt über hoch spezialisierte, LLM‑first‑InsurTech‑Plattformen, die:

  • auf vortrainierten, multimodalen Modellen basieren,
  • sich tief in die bestehende Systemlandschaft integrieren,
  • von Fachbereichen ĂĽber Low‑Code/No‑Code konfiguriert werden können,
  • Mitarbeitende zu echten „KI‑Copilots“ machen – in Schaden, Vertrieb, Service und Risikobewertung.

Wer dieses Modell jetzt konsequent angeht, wird in den kommenden Jahren nicht nur effizienter, sondern kann neue Produkte, Services und Kundenerlebnisse schaffen, die weit ĂĽber klassische Versicherung hinausgehen.

Die Frage ist nicht mehr, ob Generative KI die österreichische Versicherungsbranche verändert. Sie lautet: Wer gestaltet diese Veränderung aktiv – und wer schaut zu?