Zürich erlaubt biometrische Gesichtserkennung. Was heisst das für KI, Biometrie und digitale Integrität in Schweizer Banken und Vermögensverwaltung?

Biometrische Gesichtserkennung in Zürich – ein Wendepunkt für KI-Regulierung
87 zu 86 Stimmen – so knapp war die Entscheidung, mit der der Zürcher Kantonsrat Ende November grünes Licht für biometrische Gesichtserkennung zu Überwachungszwecken gegeben hat. Ein einziger Sitz hätte gereicht, und die Debatte wäre vertagt worden.
Für mich ist klar: Diese Abstimmung ist weit mehr als kantonale Innenpolitik. Sie ist ein Signal dafür, wie die Schweiz künftig mit KI, biometrischen Daten und digitaler Identität umgehen will – und damit hochrelevant für Schweizer Banken und Vermögensverwalter.
Denn wer mit hochsensiblen Finanz- und Kundendaten arbeitet, sitzt beim Thema biometrische Daten im selben Boot wie der Staat: maximale Verantwortung, hohe Regulatorik, erhebliche Reputationsrisiken – und gleichzeitig enormer Druck, KI-gestützte Innovationen wie biometrisches Login, Fraud Detection oder digitale Identitäten voranzutreiben.
In diesem Beitrag geht es darum, was die Zürcher Entscheidung konkret bedeutet, welche Parallelen es zur Finanzbranche gibt und wie Banken KI-gestützte biometrische Verfahren nutzen können, ohne die digitale Integrität ihrer Kundinnen und Kunden zu gefährden.
Was in Zürich beschlossen wurde – und warum das heikel ist
Der Zürcher Kantonsrat hat als erstes Schweizer Parlament die staatliche Nutzung biometrischer Gesichtserkennung zu Überwachungszwecken prinzipiell ermöglicht. Der Regierungsrat darf nun eigenständig Pilotprojekte starten.
Gleichzeitig warnen Organisationen wie die Digitale Gesellschaft und Parteien wie die Piratenpartei vor einem Dammbruch hin zu Massenüberwachung, einem Angriff auf Grundrechte und der Aushöhlung der digitalen Integrität.
Digitale Integrität meint das Recht jedes Menschen, über seine digitalen Spuren, Daten und Identitätsmerkmale selbst zu bestimmen.
Die Fronten im Kantonsrat sahen vereinfacht so aus:
- Linke Parteien: forderten ein Verbot automatischer Identifikation im öffentlichen Raum mit biometrischen Daten; Sorge vor einem „Überwachungsstaat“.
- Bürgerliche Parteien: warnten davor, Innovation zu bremsen; Kritiker wurden als „technophob“ abgestempelt.
- Regierungsrat: hatte sich zuvor noch gegen solche Pilotversuche ausgesprochen und von „verantwortungsvoller Digitalisierung“ gesprochen.
Rechtlich bleibt zwar das Datenschutzrecht (insbesondere das revDSG) der Rahmen, der auch biometrische Massnahmen einschränkt. Aber klar ist: Die politische Hemmschwelle für den Einsatz biometrischer KI ist gesunken.
Für Finanzinstitute ist diese Entwicklung ein Warnsignal. Wenn bereits beim Staat die Balance zwischen Sicherheit und Grundrechten ins Wanken gerät, wird die Messlatte für vertrauenswürdige KI im Banking automatisch höher gelegt.
Biometrie & KI im Banking: Chancen ja – aber nur mit klaren Leitplanken
In Schweizer Banken sind biometrische Verfahren längst Alltag:
- Fingerabdruck oder Face ID fürs Mobile Banking
- Stimmerkennung im Callcenter
- Verhaltensbiometrie (Tipprhythmus, Geräteprofil) für Fraud Detection
Hinzu kommen neue KI-Anwendungsfälle:
- KI-gestützte Identitätsprüfung bei Onboarding (Videoident, Dokumentenerkennung, Gesichtsmatching)
- Continuous Authentication im E-Banking über Mustererkennung
- Verknüpfung von Biometrie mit Robo-Advisory und personalisierter Kundenbetreuung (z.B. schnelle, sichere Freigabe von Beratungsvorschlägen)
Die Chancen sind real:
- deutlich weniger Kontomissbrauch
- komfortloser Login ohne Passwörter
- effizientere Prozesse in KYC, AML und Compliance-Automatisierung
Aber die Risiken sind es ebenso:
- Fehlidentifikationen (False Positives/Negatives) mit realen finanziellen Folgen
- Missbrauch biometrischer Daten bei Datenlecks
- schleichende Ausweitung der Nutzung (Zweckänderung ohne echte Einwilligung)
- Erosion des Kundenvertrauens, wenn „Überwachungsgefühl“ entsteht
Die Zürcher Debatte macht sichtbar, worüber viele Banken intern noch zu wenig offen sprechen: Biometrische KI ist nicht nur eine Security-Technologie, sondern ein tiefgreifender Eingriff in Persönlichkeitsrechte. Wer hier nur technisch denkt, wird politisch und reputationsseitig aufwachen – aber zu spät.
Parallelen zwischen staatlicher Überwachung und Finanz-KI
Der Entscheid in Zürich dreht sich formal um staatliche Überwachung. Trotzdem sind die Parallelen zur Finanzbranche auffällig und lehrreich.
1. Gleiche Datenklasse, gleicher Schutzbedarf
Gesichtsbilder, Stimmprofile, Fingerabdrücke – all das sind besonders schützenswerte Personendaten. Ob diese bei der Polizei oder einer Grossbank liegen, ändert am Schadenspotenzial wenig.
Für Banken heisst das:
- Biometrische Daten dürfen niemals wie normale Logfiles behandelt werden.
- Jede KI, die solche Daten verarbeitet (z.B. zur Fraud Detection), braucht ein eigenes, strengeres Schutz- und Governance-Konzept.
2. Zweckbindung statt schleichende Zweckausweitung
Ein Kernvorwurf der Zürcher Kritiker: Aus punktueller Überwachung werde schnell Massenüberwachung. In der Finanzwelt gibt es eine ähnliche Gefahr:
Heute nutzen Sie Biometrie nur für Login. Morgen „wäre es ja praktisch“, dieselben Daten auch für Risikoprofile, Marketing oder Produktpricing zu verwenden.
Das ist rechtlich und ethisch hochproblematisch.
Klare Leitlinie:
- Strikte Zweckbindung: Einmal für Authentifizierung erhobene Biometrie bleibt dort. Kein Scoring, kein Profiling, kein Cross-Selling.
3. Transparenz als Vertrauenswährung
In Zürich wurde besonders kritisiert, dass biometrische Überwachung das Gefühl von ständiger Kontrolle erzeugt. Dasselbe Risiko besteht, wenn Banken KI-Modelle intransparent einsetzen.
Transparenz heisst konkret:
- Offen legen, wo biometrische und KI-Verfahren eingesetzt werden
- in einfacher Sprache erklären, wie Entscheidungen und Risikoeinstufungen zustande kommen
- Kommunikationslinie: „Wir setzen KI ein, um Sie zu schützen – nicht, um Sie auszuspionieren.“
Die Realität: Die meisten Institute sind hier noch am Anfang. Wer das Thema aktiv aufgreift, verschafft sich einen echten Trust-Vorsprung.
Was Schweizer Banken jetzt konkret tun sollten
Die Zürcher Entscheidung erhöht den Druck, eigene Standards für verantwortungsvolle KI im Banking zu definieren – bevor Politik oder Skandale das tun.
1. Interne KI- & Biometrie-Policy entwickeln
Jede Bank und jeder Vermögensverwalter sollte eine klare interne Richtlinie für KI-gestützte biometrische Systeme haben, inklusive:
- Welche biometrischen Daten werden verarbeitet?
- Für welche konkreten Zwecke (Auth, Fraud Detection, KYC)?
- Welche Daten werden nicht erhoben, obwohl technisch möglich (z.B. Emotionserkennung)?
- Wie lange werden die Daten aufbewahrt? Wo werden sie gespeichert?
- Wie werden KI-Modelle trainiert, bewertet und überwacht?
Eine saubere Policy ist nicht nur Compliance-Übung. Sie ist ein starkes Werkzeug für Kommunikation und Vertrieb: „So schützen wir Ihre digitale Identität.“
2. Privacy by Design bei Fraud Detection & KYC
Gerade in Fraud Detection und Compliance-Automatisierung lohnt sich ein „Privacy by Design“-Ansatz. Praktisch bedeutet das:
- Minimierung: Nur die biometrischen Merkmale nutzen, die für das Ziel wirklich nötig sind.
- Pseudonymisierung: Wo möglich, biometrische Templates statt Rohdaten speichern.
- Segmentierung: Biometrische Daten strikt von Marketing- und Analytics-Systemen trennen.
- Explainable AI nutzen, um Entscheidungen nachvollziehbar zu begründen.
So reduzieren Sie sowohl rechtliche Risiken als auch das Gefühl „Meine Bank beobachtet mich dauernd“.
3. Governance: KI nicht der IT allein überlassen
Die Zürcher Debatte hat gezeigt, was passiert, wenn Technologie primär als Innovationsfrage gesehen wird und weniger als gesellschaftliches Thema.
In Banken sollten KI-Projekte deshalb gemeinsam verantwortet werden:
- IT / Data Science: Technologie, Modellqualität, Sicherheit
- Compliance & Legal: Regulatorik, Datenschutz, DSG/LPD, FINMA-Rundschreiben
- Risk Management: Modellrisiken, Bias, Fehlerraten
- Front & Marketing: Kundenerwartungen, Kommunikation, UX
Ich halte es für einen Fehler, KI für Biometrie, Robo-Advisory und Fraud Detection als „reines Tech-Thema“ zu behandeln. Es ist ein Vertrauensthema – und das ist Kern des Geschäftsmodells.
4. Aktive Kundenkommunikation statt stiller Einführung
Viele Institute führen neue biometrische Logins oder KI-basierte Checks „still“ ein – irgendwo im Release-Text einer App. Das ist verschenktes Vertrauen.
Besser:
- Separate Kommunikation: E-Mail, App-Banner, Erklärseite
- Klare Botschaft:
- Welches Problem lösen wir (z.B. weniger Betrugsfälle)?
- Welche Daten verwenden wir – und welche ausdrücklich nicht?
- Welche Wahlmöglichkeiten haben Kundinnen und Kunden (Opt-out, alternative Verfahren)?
Wer hier offen agiert, kann biometrische KI sogar als USP im Wettbewerb um vermögende Kundschaft positionieren.
Ausblick: Digitale Integrität als Standortfaktor für die Finanzbranche
Der Streit in Zürich um biometrische Gesichtserkennung ist ein Vorgeschmack darauf, was auf uns zukommt: heftige gesellschaftliche Debatten darüber, wie weit KI eingreifen darf – in den öffentlichen Raum genauso wie in die digitale Identität.
Für Schweizer Banken und Vermögensverwalter liegt darin eine Chance:
- Wer digitale Integrität ernst nimmt,
- biometrische KI streng zweckgebunden und transparent einsetzt,
- und Kundinnen und Kunden ernsthaft einbezieht,
kann die Schweiz als vertrauensstarken KI-Finanzplatz mitprägen.
Staatliche Stellen mögen künftig stärker auf Überwachung setzen. Umso wichtiger ist es, dass der Finanzsektor den Gegenpol markiert: KI für Sicherheit und Service – nicht für Kontrolle.
Die Frage ist also nicht, ob Banken KI-gestützte Biometrie einsetzen sollen. Das passiert längst. Die Frage ist, welches Werte-Set dahintersteht. Wer das jetzt klar für sich beantwortet und in Governance, Prozesse und Kommunikation gießt, ist den Wettbewerbern 2026 und darüber hinaus einen deutlichen Schritt voraus.
FAQ: Häufige Fragen aus der Praxis
Ist biometrische Authentifizierung im Banking überhaupt datenschutzkonform?
Ja, wenn sie auf einer klaren Rechtsgrundlage, mit informierter Einwilligung, strikter Zweckbindung und angemessenen Sicherheitsmassnahmen erfolgt. Biometrie gilt als besonders schützenswert und muss entsprechend streng behandelt werden.
Brauche ich KI für Fraud Detection zwingend biometrisch?
Nein. Viele hochwirksame Fraud-Modelle arbeiten mit Transaktionsdaten, Gerätedaten und Verhaltensmustern. Biometrie ist ein zusätzliches Werkzeug, kein Muss.
Wie passt Robo-Advisory in diese Diskussion?
Robo-Advisory nutzt KI zur Anlageempfehlung und Portfoliosteuerung. Wenn Sie Biometrie mit Robo-Advisory verknüpfen (z.B. zur sicheren Freigabe von Empfehlungen), gelten dieselben Prinzipien: Transparenz, Zweckbindung und Schutz der digitalen Identität.