Menschenzentrierte KI aus der Verwaltung zeigt, wie Handel KI vertrauenswĂĽrdig einfĂĽhrt: regional, nachvollziehbar, mit klaren Regeln. Jetzt umsetzen.

Menschenzentrierte KI: Was Handel & Bildung lernen
Wer in der Schweiz 2025 KI-Projekte startet, merkt schnell: Das Schwierigste ist selten das Modell. Es sind die Daten, die Verantwortung – und die Frage, ob Menschen dem Ergebnis am Ende wirklich vertrauen. Genau das zeigte schon die SGI-Tagung in Bern (10.11.2023) mit einem Blick in die öffentliche Verwaltung: KI ist da längst Realität, aber die Spielregeln werden noch geschrieben.
Für den Einzelhandel und E-Commerce ist das eine sehr gute Nachricht. Denn Verwaltungen haben ein ähnliches Problem wie Händler: Sie arbeiten mit sensiblen Informationen, müssen Entscheidungen erklärbar machen und stehen unter hoher öffentlicher Erwartung. Wer KI im Handel seriös einführen will – von personalisierten Empfehlungen bis zum Bestandsmanagement – kann aus den Verwaltungs-Erfahrungen viel mitnehmen.
Im Rahmen unserer Serie „KI in Bildung und Forschung“ schaue ich hier bewusst auf die Schnittmenge: Was bedeutet menschenzentrierte KI in der Praxis, wie übersetzt man Ethik in Prozesse – und wie profitieren Handel, Hochschulen und Weiterbildungsanbieter davon?
Menschenzentrierte KI beginnt nicht beim Tool, sondern beim Auftrag
Menschenzentrierte KI heißt: Der Nutzen für Menschen ist das Ziel, nicht der ROI als Ausrede. Das klingt weich, ist aber ein knallharter Projektfilter. Edy Portmann brachte es auf den Punkt, indem er den Fokus von reinem Business Engineering hin zu Life Engineering verschob: Lebensqualität, Fairness, Nachhaltigkeit – und erst dann Optimierung.
Für Händler ist das keine akademische Diskussion. Es ist die Frage, ob Kund:innen eure KI als hilfreichen Service erleben oder als Überwachung.
PraxisĂĽbersetzung fĂĽr Retail & E-Commerce
Wenn ihr zum Beispiel ein Recommender-System einfĂĽhrt, gibt es zwei grundverschiedene Zielbilder:
- „Mehr Umsatz pro Session“ (kurzfristig messbar)
- „Bessere Entscheidungen für Kund:innen“ (langfristig vertrauensbildend)
Menschenzentrierte KI baut beides – aber in der richtigen Reihenfolge. Wer zuerst auf maximale Conversion optimiert, bekommt häufig Nebenwirkungen: Filterblasen im Sortiment, zu aggressive Personalisierung, mehr Retouren, sinkende Loyalität.
Konkreter Check: 5 Fragen, die jedes KI-Projekt bestehen muss
- Wer profitiert direkt? Kund:innen, Mitarbeitende, Lernende – oder nur der Forecast?
- Welche falschen Entscheidungen wären besonders teuer? (z. B. Diskriminierung, Fehldisposition, falsche Betrugsverdächtigung)
- Wie erklären wir das Ergebnis in einem Satz? Wenn das nicht geht, fehlt meist die Produktlogik.
- Welche Daten wĂĽrden wir nicht einsetzen, selbst wenn wir dĂĽrften? Diese Grenze ist euer Vertrauensanker.
- Wer ist accountable? Ein Mensch mit Rolle, nicht „die KI“.
Vertrauen entsteht durch Nachvollziehbarkeit – nicht durch Marketing
Ein zentraler Punkt aus dem Verwaltungskontext: Viele algorithmische Systeme treffen formal keine Entscheidungen, sondern geben Empfehlungen. In der Realität übernehmen Menschen diese Empfehlungen oft trotzdem – aus Zeitdruck oder Kostengründen. Genau hier kippt KI von „Assistenz“ zu „Automatismus“.
Im Handel ist das ähnlich:
- Das System empfiehlt, welche Produkte prominent ausgespielt werden.
- Das System schlägt Bestellmengen vor.
- Das System markiert Bestellungen als „Betrugsverdacht“.
Wenn Teams diese Outputs ungeprüft übernehmen, habt ihr faktisch automatisierte Entscheidungen – inklusive Haftungs- und Reputationsrisiko.
Was „Nachvollziehbarkeit“ im Retail wirklich bedeutet
Erklärbarkeit ist nicht nur ein Data-Science-Thema. Sie ist ein Betriebsmodell.
Ein praktikabler Ansatz sind drei Erklärungsebenen:
- Für Kund:innen (kurz & klar): „Du siehst das, weil…“ (z. B. ähnliche Käufe, lokale Trends, Preis-/Größenverfügbarkeit)
- Für Mitarbeitende (handlungsorientiert): „Die Empfehlung basiert auf X, Y, Z – und du kannst A, B, C anpassen.“
- FĂĽr Audits (technisch sauber): Datenherkunft, Feature-Logik, Modellversion, Testresultate, Drift-Monitoring
Das passt zur Forderung nach Transparenz, demokratischer Aufsicht und klaren Grenzen, wie sie auch im öffentlichen Sektor diskutiert wird.
Mini-Case: Bestandsmanagement mit „menschlichem Override“
Ein Modehändler nutzt KI zur Filialdisposition. Die KI darf Bestellvorschläge machen, aber:
- Filialleitungen können mit zwei Gründen überschreiben: „lokales Event“ oder „Kund:innenprofil abweichend“.
- Ăśberschreibungen werden nicht bestraft, sondern als Trainingssignal genutzt.
- Jede Woche gibt es ein 30-Minuten-Review: Wo lag die KI daneben – und warum?
Ergebnis: weniger Blindflug, mehr Akzeptanz. Und ein sauberer Lernkreislauf.
Regionalität ist kein Romantik-Feature – sie ist eine Qualitätsanforderung
„One size fits all ist nicht fit für die Zukunft“ – der Satz aus der Diskussion zur Regionalität trifft Handel und Bildung direkt. In der Schweiz ist Regionalität Alltag: Sprachräume, Einkaufsgewohnheiten, Preiswahrnehmung, Feiertage, sogar Retourenverhalten unterscheiden sich spürbar.
Wer 2025 KI im E-Commerce einführt und dabei nur ein globales Modell „ausrollt“, bezahlt später doppelt: mit schlechterer Performance und mit mehr Erklärungsbedarf.
So baut ihr regional robuste KI-Systeme
- Segmentiert nach Regionen, nicht nur nach Personas: z. B. DACH-Regionen, Sprachräume, urbane vs. ländliche Gebiete.
- Nutzt föderales Denken als Architekturprinzip: zentrale Leitplanken, lokale Anpassungsmodule.
- Testet in „realen Wochen“: Black Friday, Weihnachtsgeschäft, Sportferien, lokale Events.
Und hier wird es bildungsrelevant: Hochschulen, Fachhochschulen und Weiterbildungsanbieter können genau diese Fähigkeiten vermitteln – nicht nur Modelltraining, sondern Kontextmodellierung.
Warum das in der „KI in Bildung und Forschung“-Serie dazugehört
Die wichtigsten Skills fĂĽr menschenzentrierte KI entstehen an der Schnittstelle von Disziplinen:
- Informatik + Psychologie (wie Menschen Empfehlungen wahrnehmen)
- Recht + Produktentwicklung (was darf, was soll, was lassen wir)
- Data Science + Betriebswirtschaft (Forecasts, die im Alltag funktionieren)
Wer Retail-KI verantwortet, braucht Teams, die genau das gelernt haben.
Datengenossenschaften: Ein Modell, das Retail endlich ernst nehmen sollte
Die Idee von Datengenossenschaften ist im Kern simpel: Daten werden gemeinschaftlich verwaltet, der Nutzen wird fair verteilt. Das ist für den Handel hochspannend – vor allem für KMU, die gegen datenstarke Plattformen antreten.
Stellt euch vor, mehrere regionale Händler, ein Marktplatzbetreiber und vielleicht sogar eine Hochschule betreiben gemeinsam eine Daten-Genossenschaft für:
- anonymisierte Kaufmuster
- lokale Nachfrageindikatoren
- Größen-/Passform-Statistiken (zur Retourenreduktion)
Wichtig ist: Es geht nicht um „Daten verkaufen“, sondern um kontrollierten Zugriff und klar definierte Gegenleistungen.
Ein realistischer Pilot fĂĽr Schweizer KMU (6 Monate)
- Scope festlegen: ein Use Case, z. B. „Retourenquote um 10% senken“
- Daten minimieren: nur Felder, die den Use Case tragen
- Governance definieren: wer darf was, wer entscheidet bei Streitfällen
- API-Zugriff regeln: transparent, protokolliert, widerrufbar
- Nutzen verteilen: Rabatte auf gemeinsame Modelle, Insights-Reports, Kostenbeteiligung
Das ist nicht trivial – aber machbar. Und es passt hervorragend zu einem menschenzentrierten Anspruch: Beteiligte bekommen Kontrolle und Gegenwert.
Rahmenbedingungen im Handel: Was die Verwaltung vormacht
Die öffentliche Hand diskutiert Verzeichnisse, Richtlinien, Verhaltenskodizes und Zuständigkeiten. Händler sollten daraus nicht „Bürokratie“ lesen, sondern Betriebssicherheit.
Wenn ihr KI skaliert, braucht ihr Leitplanken, die in jeder Filiale, jedem Shop-Release und jedem Kampagnen-Sprint gelten.
Ein schlanker KI-Verhaltenskodex fĂĽr Retail (Startversion)
- Transparenz: Kund:innen können nachvollziehen, ob KI im Spiel ist (z. B. bei Empfehlungen, Preisen, Support).
- Fairness: Kein Modell geht live ohne Bias-Checks in relevanten Gruppen.
- Datenschutz & Datensparsamkeit: Nur Daten, die fĂĽr den Zweck erforderlich sind.
- Human-in-the-loop: Kritische Entscheidungen (z. B. Fraud, Kredit, Sperrungen) haben klare Eskalationswege.
- Monitoring: Drift, Fehlalarme und Beschwerden werden als KPI gefĂĽhrt.
„People also ask“ – kurz beantwortet
Brauchen wir für KI im Einzelhandel zwingend eigene Modelle? Nein. Aber ihr braucht eigene Regeln, Datenstandards und Qualitätskontrollen, sonst seid ihr vom Verhalten externer Systeme abhängig.
Wie verhindere ich, dass Teams der KI blind folgen? Mit Prozessdesign: Overrides erlauben, Begründungen erfassen, regelmäßige Reviews, und eine Kultur, in der Widerspruch erwünscht ist.
Was ist der schnellste menschenzentrierte Use Case? Customer Support mit klaren Grenzen (z. B. Entwürfe für Antworten), kombiniert mit Wissensdatenbank-Pflege. Der Nutzen ist sofort spürbar, das Risiko gut steuerbar.
Was jetzt zählt: Zusammenarbeit, die im Alltag funktioniert
Die Diskussion aus dem Verwaltungskontext läuft auf einen Kern hinaus: KI wird besser, wenn mehr Akteure gemeinsam Standards, Datenqualität und Verantwortung klären. Für den Handel heißt das: Nicht jeder muss alles allein bauen.
Ich halte drei Kooperationsformen fĂĽr besonders wirksam:
- Retail-KMU + Hochschule: Praxisdaten treffen Forschungskompetenz (und Ausbildungseffekt)
- Branchenverband + Tech-Partner: gemeinsame Referenzarchitektur, Muster-Verträge, Mindeststandards
- Mehrere Händler + Logistik: gemeinsame Prognosen, bessere Verfügbarkeit, weniger Verderb
Gerade im Weihnachtsgeschäft und in den umsatzstarken Wochen rund um den Jahreswechsel (wir sind mitten in der Saison am 21.12.2025) zeigt sich, ob KI wirklich hilft: Wird sie zum Stressverstärker – oder macht sie Teams handlungsfähiger?
Nächster Schritt: Ein 30-Tage-Plan für menschenzentrierte Retail-KI
Wenn ihr 2026 nicht nur „auch KI“ machen wollt, sondern vertrauenswürdige KI im Einzelhandel, startet klein, aber strukturiert:
- Woche 1: Use Case auswählen (max. 1), Erfolgskriterium definieren (z. B. -5% Out-of-Stock)
- Woche 2: Dateninventar + Risikoanalyse (Bias, Datenschutz, Reputationsrisiko)
- Woche 3: Prototyp mit Human-in-the-loop (Override + Logging)
- Woche 4: Pilot messen, Feedback einsammeln, Regeln nachschärfen, Rollout-Entscheid
Menschenzentrierte KI ist keine Kuschelecke. Sie ist die einzige realistische Art, KI so zu betreiben, dass Kund:innen, Mitarbeitende und Aufsichtslogiken mitgehen.
Welche KI-Entscheidung in eurem Unternehmen müsste morgen schon erklärbar sein – und ist es heute noch nicht?