DerriĂšre lâIA de surveillance, il y a souvent des humains. Voici comment rĂ©duire les risques privacy et sĂ©curitĂ© avec transparence, contrĂŽles et audit.

IA de surveillance : lâangle mort humain et la confiance
Une fuite âaccidentelleâ a mis en lumiĂšre un dĂ©tail que beaucoup dâorganisations prĂ©fĂšrent garder hors champ : derriĂšre certaines IA de surveillance, il y a des personnes qui regardent, trient et Ă©tiquettent des images. Dans le cas de Flock â un acteur qui dĂ©ploie des camĂ©ras dans des milliers de communautĂ©s aux Ătats-Unis â des travailleurs aux Philippines auraient Ă©tĂ© mobilisĂ©s pour rĂ©viser et classer des sĂ©quences vidĂ©o afin dâentraĂźner et dâamĂ©liorer le systĂšme.
Le dĂ©bat se limite souvent à « IA vs vie privĂ©e ». Câest trop court. Le vrai sujet, surtout dans une sĂ©rie sur lâintelligence artificielle dans la cybersĂ©curitĂ©, câest le chaĂźnon humain : qui voit quoi, quand, depuis oĂč, et avec quelles garanties ? Quand une IA âvoitâ la rue, un parking ou lâentrĂ©e dâun immeuble, elle fabrique aussi des donnĂ©es sensibles â exploitables, corrĂ©lables, et parfois rĂ©-identifiables.
Ce billet part de cette rĂ©vĂ©lation pour tirer des leçons concrĂštes, cĂŽtĂ© cybersĂ©curitĂ© et gouvernance : transparence, minimisation des donnĂ©es, contrĂŽles dâaccĂšs, et audits. Parce que la confiance ne se dĂ©crĂšte pas : elle sâindustrialise.
Ce que rĂ©vĂšle lâaffaire Flock : lâIA « autonome » ne lâest pas
Le point clĂ© est simple : beaucoup de systĂšmes dâIA reposent sur du travail humain pour apprendre (annotation), corriger (validation), et maintenir la qualitĂ© (revue de faux positifs/faux nĂ©gatifs). Quand la fuite Ă©voque des gig workers Ă lâĂ©tranger qui classent des images, elle met en Ă©vidence une rĂ©alitĂ© opĂ©rationnelle : lâIA nâest pas quâun modĂšle, câest une chaĂźne de production.
Dans une IA de surveillance, cette chaßne inclut typiquement :
- Collecte (caméras, capteurs, flux vidéo)
- Prétraitement (floutage, recadrage, extraction de plaques/objets)
- Inférence (détection, suivi, correspondance)
- Revue humaine (contrĂŽle qualitĂ©, correction dâĂ©tiquettes, cas ambigus)
- Boucle dâamĂ©lioration (rĂ©-entraĂźnement, ajustement des seuils)
Le risque majeur ? Si la revue humaine est sous-traitĂ©e, parfois Ă lâĂ©tranger, vous multipliez les surfaces dâattaque et les points de non-conformité : accĂšs distants, outils tiers, mauvaises pratiques, et surtout Ă©cart entre promesse marketing (âautomatisĂ©â) et rĂ©alitĂ© (âsemi-manuelâ).
Pourquoi lâannotation vidĂ©o est si sensible
Classer des images de rue peut sembler banal. En pratique, ces images peuvent contenir des Ă©lĂ©ments hautement identifiants : visages, plaques dâimmatriculation, habitudes de passage, visiteurs rĂ©guliers, horaires. Une base dâimages annotĂ©es constitue souvent une matiĂšre premiĂšre idĂ©ale pour :
- des recoupements (oĂč et quand une personne apparaĂźt)
- des abus internes (curiosité, surveillance ciblée)
- des fuites (captures dâĂ©cran, exports, partages)
Une phrase qui résume bien le problÚme :
DĂšs quâun humain peut voir une donnĂ©e, il faut gĂ©rer ce risque comme un accĂšs administrateur.
Le vrai pont avec la cybersĂ©curité : la confidentialitĂ© est une âattaqueâ, pas un dĂ©bat
Dans les entreprises, on traite volontiers la cybersĂ©curitĂ© comme un sujet dâattaques externes (ransomware, phishing). Mais dans des systĂšmes dâIA, la menace est souvent interne ou supply chain : prestataires, sous-traitants, plateformes dâannotation, comptes partagĂ©s, environnements cloud mal cloisonnĂ©s.
Une IA de surveillance nâest pas seulement un outil âsĂ©cuâ. Câest aussi :
- un systĂšme de collecte massive,
- une base de données temporelle,
- un moteur de recherche sur des événements du réel.
Si cette base est mal gouvernĂ©e, vous crĂ©ez une cible Ă haute valeur. Et le scĂ©nario nâa rien de thĂ©orique : un simple accĂšs trop large Ă des outils dâannotation peut suffire Ă exfiltrer des sĂ©quences.
Menaces typiques quand des annotateurs interviennent
Voici ce que jâai vu fonctionner (et Ă©chouer) dans des projets IA orientĂ©s sĂ©curité :
- Sur-collecte : on conserve âau cas oĂčâ des flux bruts au lieu de ne garder que des signaux nĂ©cessaires.
- AccĂšs permanents : des comptes prestataires restent ouverts des mois aprĂšs la fin dâun lot dâannotation.
- Exfiltration silencieuse : captures Ă©cran, exports JSON/CSV dâĂ©tiquettes, ou duplication de jeux de donnĂ©es.
- RĂ©-identification : mĂȘme aprĂšs floutage, des indices contextuels (lieux, horaires, vĂȘtements) peuvent suffire.
- DĂ©rive dâusage : un outil prĂ©vu pour âsĂ©curitĂ©â devient un outil de surveillance gĂ©nĂ©ralisĂ©e.
Ce nâest pas âanti-IAâ. Câest de la gestion du risque. Une IA utile en cybersĂ©curitĂ© doit ĂȘtre traçable et auditĂ©e, sinon elle ajoute un problĂšme au lieu dâen rĂ©soudre.
Transparence et Ă©thique : ce nâest pas de la comâ (câest de lâarchitecture)
La transparence nâest pas un paragraphe dans un PDF. Câest un ensemble de choix techniques et contractuels qui rendent les abus plus difficiles et les audits plus simples.
Quand une entreprise utilise des travailleurs Ă lâĂ©tranger pour annoter de la vidĂ©o, les questions clĂ©s sont concrĂštes :
- OĂč les donnĂ©es sont-elles stockĂ©es et traitĂ©es ?
- Qui a un accÚs, et à quel niveau (flux brut vs données anonymisées) ?
- Combien de temps conserve-t-on les images et les annotations ?
- Comment prouve-t-on quâune demande dâeffacement a Ă©tĂ© exĂ©cutĂ©e ?
- Quels contrĂŽles empĂȘchent la copie (DLP, watermarking, environnements verrouillĂ©s) ?
âHumain dans la boucleâ : utile, mais Ă conditions strictes
En cybersĂ©curitĂ©, lâhumain dans la boucle est souvent nĂ©cessaire : validation dâalertes, triage, investigations. Pour lâIA de surveillance, câest pareil. Le problĂšme nâest pas lâexistence dâune revue humaine ; câest lâopacitĂ© et lâabsence de garde-fous.
Un modÚle pragmatique :
- Les annotateurs ne voient que des extraits minimaux (quelques secondes, zone rognée), pas des flux longs.
- Les accĂšs sont Ă©pheÌmĂšres (just-in-time), avec MFA et enregistrement.
- Les environnements de travail sont contrĂŽlĂ©s (navigation restreinte, pas dâexport, pas de copier-coller).
- Les donnĂ©es sont pseudonymisĂ©es et sĂ©parĂ©es des mĂ©tadonnĂ©es de localisation quand câest possible.
La phrase à garder :
LâĂ©thique se mesure Ă ce que le systĂšme empĂȘche, pas Ă ce quâil promet.
Comment réduire le risque : une check-list opérationnelle pour les responsables sécu
Si vous achetez, dĂ©ployez ou interconnectez des solutions dâIA (surveillance, dĂ©tection dâintrusion, fraude, SOC), voici un socle de contrĂŽles rĂ©alistes. Lâobjectif : bĂ©nĂ©ficier de lâIA sans devenir un collecteur incontrĂŽlĂ©.
1) Cartographier la chaĂźne de sous-traitance (et la documenter)
Exigez une vue claire des acteurs : Ă©diteur, hĂ©bergeur, plateforme dâannotation, support, prestataires. Si la rĂ©ponse tient sur une diapo vague, câest un mauvais signe.
à demander noir sur blanc :
- pays de traitement,
- catégories de données,
- sous-traitants de rang 2 (et 3),
- conditions de suppression/retour des données.
2) Minimiser les données (vraiment)
Réduire le volume réduit le risque. Trois rÚgles simples :
- Ne stockez pas le flux brut si un événement suffit.
- Diminuez la durĂ©e de rĂ©tention (ex. 7â30 jours plutĂŽt que 180).
- PrĂ©fĂ©rez des features (empreintes, vecteurs) quand câest possible, tout en Ă©valuant le risque de rĂ©-identification.
3) Cloisonner les accĂšs comme si câĂ©tait un coffre-fort
Traitez lâaccĂšs aux images annotĂ©es comme un accĂšs Ă des secrets :
- RBAC strict, least privilege
- journaux immuables (audit trails)
- sessions enregistrées pour les opérations sensibles
- alertes sur extraction anormale (volume, horaires, pattern)
4) Mettre des âpreuvesâ de conformitĂ©, pas des promesses
Deux Ă©lĂ©ments font la diffĂ©rence lors dâun incident :
- preuves dâaccĂšs (qui a vu quoi)
- preuves de suppression (ce qui a Ă©tĂ© effacĂ©, quand, et oĂč)
Sans ces preuves, vous serez coincés entre communication de crise et incertitude technique.
5) Tester les dérives : faux positifs, biais, et usages secondaires
LâIA de surveillance peut amplifier des biais (conditions de nuit, angles, quartiers) et gĂ©nĂ©rer des faux positifs qui poussent Ă âsur-investiguerâ. Dans une logique cybersĂ©curitĂ©, ça ressemble Ă un SOC noyĂ© sous les alertes.
Un bon rituel trimestriel :
- audit dâĂ©chantillons (qualitĂ© dâannotation, cohĂ©rence)
- analyse de faux positifs (quels contextes, quelles caméras)
- revue des accÚs (qui a réellement utilisé la donnée)
Questions quâon me pose souvent (et des rĂ©ponses nettes)
Une IA peut-elle fonctionner sans annotateurs ?
Rarement. MĂȘme avec des modĂšles prĂ©-entraĂźnĂ©s, il faut presque toujours de la validation, de la correction et des jeux de donnĂ©es spĂ©cifiques au contexte (pays, Ă©clairage, capteurs). La question nâest pas âzĂ©ro humainâ, mais âhumain sous contrĂŽleâ.
Sous-traiter Ă lâĂ©tranger est-il forcĂ©ment problĂ©matique ?
Non. Le problĂšme, câest la combinaison opacitĂ© + donnĂ©es sensibles + accĂšs faibles. Un prestataire peut ĂȘtre trĂšs rigoureux, et une Ă©quipe interne peut ĂȘtre laxiste. La diffĂ©rence se joue sur les contrĂŽles, lâauditabilitĂ© et les responsabilitĂ©s.
Quel lien avec lâIA en cybersĂ©curitĂ© âclassiqueâ (SOC, EDR, anti-fraude) ?
Le mĂȘme : les modĂšles ingĂšrent des donnĂ©es sensibles (logs, identifiants, comportements) et peuvent impliquer des revues humaines (support Ă©diteur, triage, labelling). Si vous nâauditez pas la chaĂźne humaine, vous laissez une porte ouverte.
Ce que jâen retiens pour votre stratĂ©gie âIA + cybersĂ©curitĂ©â en 2026
Lâaffaire Flock met un projecteur sur un angle mort : lâIA qui protĂšge peut aussi exposer si sa chaĂźne de fabrication est opaque. En 2026, les organisations qui gagneront la confiance ne seront pas celles qui annoncent âtout automatiqueâ, mais celles qui savent expliquer â simplement â qui a accĂšs, pourquoi, et comment câest contrĂŽlĂ©.
Si vous dĂ©ployez des outils dâIA dans la cybersĂ©curitĂ©, faites un choix clair : soit vous traitez la donnĂ©e comme un actif critique (gouvernance, cloisonnement, audit), soit vous acceptez un risque de rĂ©putation, de conformitĂ© et dâincident. Jâai rarement vu un entre-deux tenir longtemps.
Vous voulez Ă©valuer vos outils actuels (ou un futur projet) sous lâangle transparence + confidentialitĂ© + chaĂźne humaine ? Commencez par une seule question, trĂšs concrĂšte : si un prestataire externe peut voir vos donnĂ©es, pouvez-vous le prouver, le limiter, et le rĂ©voquer en moins dâune heure ?