Biometrische Gesichtserkennung in ZĂĽrich: Chance oder Risiko?

KI in der Schweizer Industrie: Präzision mit Intelligenz••By 3L3C

Zürich erlaubt staatliche Gesichtserkennung. Was bedeutet das für KI-Projekte in Industrie und Retail – und wie setzen Unternehmen Biometrie verantwortungsvoll ein?

biometrische gesichtserkennungdigitale integritätki im einzelhandeldatenschutz schweizüberwachungstechnologienschweizer industrieki governance
Share:

Biometrische Gesichtserkennung in ZĂĽrich: Was jetzt auf dem Spiel steht

87 zu 86 Stimmen – eine Differenz von genau einer Stimme hat gereicht, damit der Zürcher Kantonsrat als erstes Parlament der Schweiz biometrische Gesichtserkennung für staatliche Überwachung ermöglicht. Kein Nebenthema, sondern ein Signal, das weit über die Grenzen des Kantons hinausreicht.

Für alle, die sich mit KI in der Schweizer Industrie, Präzisionsfertigung oder Retail-Innovation beschäftigen, ist dieser Entscheid mehr als eine Datenschutzmeldung. Er zeigt, wie schnell sich Rahmenbedingungen ändern können – und wie sorgfältig Unternehmen jetzt mit biometrischen und KI-Technologien umgehen müssen, wenn sie Vertrauen nicht verspielen wollen.

In diesem Beitrag geht es darum,

  • was der ZĂĽrcher Entscheid konkret bedeutet,
  • warum BĂĽrgerrechts-Organisationen von einem „neuen Kapitel der MassenĂĽberwachung“ sprechen,
  • welche Konsequenzen das fĂĽr Unternehmen – insbesondere Handel und Industrie – hat,
  • und wie sich KI-gestĂĽtzte Gesichtserkennung verantwortungsvoll einsetzen lässt.

Damit fügt sich der Beitrag in unsere Serie „KI in der Schweizer Industrie: Präzision mit Intelligenz“ ein – diesmal mit Fokus auf die sensible Schnittstelle zwischen technologischer Präzision, rechtlichem Rahmen und gesellschaftlicher Akzeptanz.


Was der ZĂĽrcher Kantonsrats-Entscheid wirklich erlaubt

Der Kern des Entscheids ist klar: Der Zürcher Regierungsrat darf künftig Pilotprojekte mit biometrischer Gesichtserkennung zu Überwachungszwecken eigenständig starten.

Die wichtigsten Punkte des Entscheids

  • Der ZĂĽrcher Kantonsrat hat eine Minderheitsmotion mit 87 zu 86 Stimmen angenommen.
  • ZĂĽrich ist damit der erste Kanton mit einem parlamentarischen Ja zu staatlicher Gesichtserkennung.
  • Der Regierungsrat kann Pilotprojekte starten, ohne fĂĽr jeden Testlauf nochmals ins Parlament zu mĂĽssen.

Auf der anderen Seite scheiterte der Vorstoss der linken Parteien, die automatisierte Identifikation im öffentlichen Raum grundsätzlich verbieten wollten. Bürgerliche Parteien argumentierten, man dürfe „Innovation nicht bremsen“ und bezeichneten Kritiker als technikfeindlich.

Entscheidende Botschaft: Biometrische Ăśberwachung wird in der Schweiz nicht mehr nur theoretisch diskutiert, sondern praktisch vorbereitet.

Für Unternehmen – vom Bahnhofs-Retailer bis zum Industrieareal-Betreiber – ist das ein deutlicher Hinweis: Gesichtserkennung und KI-basierte Überwachungssysteme werden regulatorisch und gesellschaftlich sehr genau beobachtet werden.


Warum BĂĽrgerrechts-Organisationen Alarm schlagen

Die Reaktionen auf den Entscheid fallen scharf aus. Die NGO Digitale Gesellschaft spricht von einem „neuen Kapitel der Massenüberwachung, das Freiheit und Demokratie in der Schweiz untergräbt“.

Die zentralen Kritikpunkte

Die Kritiker sehen vor allem drei Gefahren:

  1. Eingriff in die Privatsphäre
    Biometrische Daten wie Gesichtsbilder sind hochsensibel. Wer im öffentlichen Raum automatisch identifiziert werden kann, verliert faktisch die Anonymität im Alltag.

  2. Erosion von Grundrechten
    Organisationen wie die Digitale Gesellschaft argumentieren, flächendeckende Gesichtserkennung stehe im Konflikt mit:

    • dem verfassungsmässigen Recht auf Privatsphäre,
    • internationalen Menschenrechtsgarantien,
    • und dem Grundsatz, dass der Staat BĂĽrger nur bei konkretem Anlass ĂĽberwachen darf.
  3. Schwacher Schutz ohne explizite „digitale Integrität“
    Der ZĂĽrcher Ableger der Piratenpartei wirft dem Kantonsrat vor, sich selbst zu widersprechen:

    • Bisher wurde ein explizites Grundrecht auf digitale Integrität als unnötig abgelehnt, weil „bestehende Gesetze genĂĽgten“.
    • Mit dem Gesichtserkennungs-Entscheid werde nun aber genau diese LĂĽcke sichtbar.

Ich teile eine zentrale Einschätzung der Kritiker: Ohne klare rote Linien ist die Versuchung gross, aus Pilotprojekten dauerhafte Systeme zu machen – etwa an Bahnhöfen, in Stadien oder grossen Einkaufszentren.

Und genau dort überschneidet sich die staatliche Debatte mit den Plänen vieler Unternehmen, KI und Biometrie für Sicherheit, Analyse oder Komfort zu nutzen.


Gesichtserkennung trifft Industrie & Retail: Chancen und Fallstricke

Für die Schweizer Präzisionsindustrie, den Detailhandel und Betreiber von Logistik- oder Produktionsarealen ist Gesichtserkennung technisch attraktiv – aber rechtlich heikel.

Mögliche Einsatzszenarien in Industrie und Handel

1. Zugriffskontrolle in der Produktion
Hochsensible Fertigungsbereiche – etwa in der Medizintechnik oder Uhrenindustrie – setzen bereits auf starke Zutrittskontrollen. Biometrische Erkennung kann:

  • Zugänge schneller und sicherer machen,
  • Badge-Sharing verhindern,
  • Audit-Trails präzise abbilden.

2. Sicherheitskonzepte auf Arealen
Industrieparks oder Logistikzentren könnten KI-Kameras nutzen, um:

  • unbefugte Personen zu erkennen,
  • Schichtwechsel und Besucherströme zu steuern,
  • bei sicherheitsrelevanten Vorfällen schneller zu reagieren.

3. Retail- und Bahnhofsumfelder
Im Retail wird teils mit KI-unterstützter Videoanalyse experimentiert – von Besucherzählung bis Diebstahlprävention. Gesichtserkennung könnte etwa:

  • bekannte Ladendiebe identifizieren,
  • VIP-Kunden wiedererkennen (wenn diese zugestimmt haben),
  • Warteschlangen und Personalplanung optimieren (meist ohne Identifikation, nur per anonymisierter Analyse).

Wo Unternehmen schnell in die Grauzone rutschen

Die technische Versuchung ist gross: KI-Modelle werden besser, Kameras billiger, Cloud-Integrationen einfacher. Aber genau hier entsteht die grösste rechtliche und ethische Fallhöhe:

  • Staatliche Piloten beeinflussen gesellschaftliche Akzeptanz. Wenn ZĂĽrich Gesichtserkennung testet, wird die Technologie sichtbarer – und gleichzeitig kritischer beobachtet.
  • Unternehmen geraten in denselben Diskurs. BĂĽrger unterscheiden nicht fein zwischen „staatlicher Ăśberwachung“ und „privater Gesichtserkennung im Einkaufszentrum“.
  • Fehlende Transparenz beschädigt Marken. Ein geheimer Kamera-Pilot kann medial in wenigen Stunden zur Vertrauenskrise werden.

Die Realität: Technisch möglich ist längst mehr, als gesellschaftlich akzeptiert ist. Wer KI in der Industrie oder im Handel produktiv einsetzt, muss daher mehr als nur das juristische Minimum erfüllen.


Rechtlicher Rahmen: Was LPD und DSGVO-Logik verlangen

Rein rechtlich ist der Schweizer Boden nicht leer. Die Schweizer Datenschutzgesetzgebung (revidiertes DSG / LPD) stellt klare Anforderungen an biometrische Daten.

Biometrie = besonders schĂĽtzenswerte Daten

Gesichtsbilder, die zur Identifikation einer Person verwendet werden, gelten als besonders schĂĽtzenswerte Personendaten. Daraus folgen mehrere Pflichten:

  • Rechtsgrundlage und Zweckbindung: Sie mĂĽssen einen klar definierten, legitimen Zweck haben – „weil es technisch möglich ist“ reicht nicht.
  • Einwilligung oder ĂĽberwiegendes Interesse: Im privaten Bereich braucht es in vielen Fällen eine ausdrĂĽckliche Einwilligung oder eine saubere Abwägung, ob ein ĂĽberwiegendes privates Interesse vorliegt.
  • Datensparsamkeit: Nur die Daten erheben, die wirklich nötig sind – etwa reine Zutritts-Templates statt kompletter Bilddatenbanken.
  • Transparenz: Betroffene mĂĽssen wissen, was erfasst wird, wozu, wie lange, und an wen Daten allenfalls ĂĽbermittelt werden.

Im öffentlichen Bereich (wie im Zürcher Fall) kommen zusätzlich grundrechtliche Hürden und Verhältnismässigkeitsprüfungen ins Spiel. Aber die Logik lässt sich auch auf Unternehmen übertragen: Nur weil etwas erlaubt ist, heisst es noch lange nicht, dass Kunden und Mitarbeitende es akzeptieren.


Wie Unternehmen KI- und Gesichtserkennung verantwortungsvoll nutzen

FĂĽr die Schweizer Industrie und den Einzelhandel heisst der ZĂĽrcher Entscheid: Wer jetzt mit KI und Biometrie plant, braucht ein sauberes Konzept fĂĽr digitale Verantwortung.

Hier ein praxisnaher Fahrplan, der sich aus vielen Projekten bewährt hat:

1. Use Cases klar eingrenzen

Der erste Fehler vieler Firmen: Zu breite Ziele.

  • Definieren Sie einen konkreten Anwendungsfall: z.B. Zutrittskontrolle fĂĽr ein Labor, nicht gleich das ganze Werk.
  • Formulieren Sie den Mehrwert in Zahlen:
    • z.B. „Reduktion von Badge-Missbrauch um 80 %“ statt „bessere Sicherheit“.
  • PrĂĽfen Sie, ob eine weniger invasive Alternative (Badges, Codes, anonymisierte Videoanalyse) den Zweck auch erfĂĽllt.

2. Datenschutz-Folgenabschätzung durchführen

FĂĽr biometrische Verfahren ist eine Data Protection Impact Assessment (DPIA) praktisch Pflicht, auch wenn das Gesetz es nicht immer explizit verlangt.

Sie sollte mindestens enthalten:

  • Beschreibung des Systems (DatenflĂĽsse, verwendete KI-Modelle),
  • Bewertung von Risiken (Fehlidentifikation, Missbrauch, Zweckänderungen),
  • konkrete Massnahmen (Pseudonymisierung, strenge Zugriffsrechte, Speicherfristen),
  • Entscheid, ob und wie das Projekt verantwortbar ist.

Ich habe mehrfach erlebt: Eine ernstgemeinte DPIA ist der Moment, in dem Management erkennt, ob ein Projekt wirklich vertretbar ist – oder zu riskant.

3. Transparenz als Standard, nicht als Ausnahme

Transparenz ist kein Marketing-Gimmick, sondern der einzige Weg zu langfristigem Vertrauen.

  • Klare Kennzeichnung von Kamera- und Biometrie-Zonen.
  • Verständliche Datenschutzhinweise (nicht nur juristische PDFs).
  • Schulung von Mitarbeitenden, damit sie Auskunft geben können, wenn Kunden oder Besucher nachfragen.

Im Schweizer Retail sehe ich aktuell zwei Lager:

  • Firmen, die biometrische oder KI-Videoanalyse möglichst unsichtbar halten.
  • Firmen, die offensiv kommunizieren und erklären, warum und wie sie KI nutzen.

Die zweite Gruppe hat aus meiner Sicht die besseren Karten, wenn die gesellschaftliche Debatte – wie jetzt in Zürich – an Fahrt aufnimmt.

4. Technische Präzision ernst nehmen

Wer Gesichtserkennung im industriellen oder sicherheitsrelevanten Kontext nutzt, muss die Qualität der KI-Modelle laufend messen:

  • False Positives (fälschliche Treffer) und False Negatives (ĂĽbersehene Personen) quantifizieren,
  • Erkennungsraten nach Altersgruppen, Geschlecht, Hautfarbe analysieren (Bias-Erkennung),
  • klare Eskalationswege: Ein KI-Treffer darf nie die einzige Entscheidungsgrundlage sein, sondern sollte manuell verifiziert werden.

Das passt direkt in unser Serienthema „Präzision mit Intelligenz“: In der Fertigung akzeptiert niemand eine Maschine, die „meistens“ im Toleranzbereich liegt. Bei KI, die über Menschen urteilt, darf der Anspruch nicht tiefer liegen.

5. Governance etablieren: KI- und Daten-Gremium

Viele Unternehmen fĂĽhren gerade AI-Governance-Boards ein. FĂĽr Projekte mit Gesichtserkennung sollte ein solches Gremium:

  • Anwendungsfälle freigeben oder ablehnen,
  • Mindeststandards fĂĽr Transparenz und PrĂĽfung definieren,
  • Beschwerden und Vorfälle auswerten,
  • regelmässige Reviews der eingesetzten KI-Modelle verlangen.

Wer das jetzt strukturiert aufsetzt, spart sich später Krisenkommunikation – gerade, wenn die öffentliche Debatte durch staatliche Projekte wie in Zürich weiter angeheizt wird.


Was dieser Entscheid fĂĽr die Zukunft von KI in der Schweiz bedeutet

Der Zürcher Kantonsratsentscheid ist ein Präzedenzfall. Er zeigt, wie schnell politische Mehrheiten biometrische Technologien zulassen – und wie knapp solche Entscheide ausfallen können.

FĂĽr die Schweizer Industrie und den Handel heisst das:

  • Die Technik wird sich weiter verbreiten – ob man will oder nicht.
  • Die Akzeptanz hängt nicht nur von Juristen, sondern von gesellschaftlicher Wahrnehmung und Vertrauen ab.
  • Unternehmen, die KI verantwortungsvoll, transparent und präzise einsetzen, werden eher als verlässliche Partner wahrgenommen – auch von Behörden.

Wer heute in Qualitätskontrolle, vorausschauende Wartung oder Prozessoptimierung bereits stark auf KI setzt, sollte biometrische Themen nicht als Nebenschauplatz behandeln. Es geht um dasselbe Prinzip: Wie viel Macht geben wir Algorithmen – und wie stellen wir sicher, dass Menschen die Kontrolle behalten?

Für die nächsten Monate rechne ich mit drei Entwicklungen:

  1. Mehr politische Vorstösse – sowohl für wie auch gegen biometrische Überwachung.
  2. Höhere Erwartungen an Unternehmen, die KI in sicherheitsnahen Bereichen nutzen.
  3. Stärkeren Fokus auf „digitale Integrität“ als Teil der Unternehmenswerte und -kultur.

Wer KI-Strategien für 2026 plant, sollte diesen Aspekt bewusst mitdenken. Nicht nur die Frage „Was ist möglich?“, sondern vor allem: „Was ist verantwortbar – und wofür möchten wir in fünf Jahren stehen?“