Dans une salle blanche de la préfecture de police de Paris, une dizaine d’agents scrutent une quarantaine d’écrans. Face à eux défilent les images de 27 000 caméras installées dans les gares et stations de métro d’Île-de-France. Trois d’entre eux tentent de suivre la progression de voleurs à la tire repérés à Barbès. « Il y en a un qui a des baskets bleues », note l’un des opérateurs. Bientôt, une intelligence artificielle pourrait traquer ces baskets bleues à leur place, d’une caméra à l’autre, en temps réel.
Ce mercredi 25 mars, le ministre de l’Intérieur Laurent Nuñez présente en Conseil des ministres un projet de loi qui vise à étendre jusqu’en 2030 l’expérimentation de la vidéosurveillance algorithmique (VSA), cette technologie qui dope les caméras de sécurité à l’intelligence artificielle. Testée lors des Jeux olympiques de Paris en 2024, elle pourrait désormais s’inviter dans le quotidien de millions de Franciliens.
Ce que les JO ont (vraiment) donné
Le principe est simple sur le papier. Une caméra filme, un algorithme analyse les images en continu et signale les anomalies, un opérateur humain prend ensuite le relais pour décider s’il faut agir. Pendant les JO de Paris, la préfecture de police a déployé cette technologie sur des événements ponctuels : compétitions sportives, concerts, rassemblements de grande ampleur. Le cadre légal, issu de la loi JO 2024, était strictement limité à ce type d’événements.
Sauf que le bilan de l’expérience est loin d’être triomphal. Le comité d’évaluation chargé d’analyser l’usage de la VSA pendant les Jeux a publié son rapport début 2025. Verdict : des « performances inégales, très variables en fonction des opérateurs », selon les termes du rapport relayé par franceinfo. Deux ans plus tard, certaines fonctionnalités posent toujours problème. Anne-Florence Canton, directrice de l’innovation à la préfecture de police de Paris, reconnaît que l’IA confond encore une flamme avec un reflet ou un réverbère. Quant à la détection d’armes, elle reste un casse-tête : « C’est compliqué de définir ce qu’est une arme, ça peut être plein de choses », concède l’ingénieure polytechnicienne.
Malgré ce bilan en demi-teinte, le gouvernement veut passer à la vitesse supérieure.
Du stade au quai de métro
Le projet de loi ne se contente pas de reconduire l’existant. Il élargit considérablement le périmètre de la surveillance algorithmique. Trois types de lieux sont désormais visés : les transports en commun (sur des tronçons identifiés comme sensibles, pas l’ensemble du réseau), les bâtiments exposés à la menace terroriste, et les lieux accueillant du public, grands musées parisiens en tête.
Au cœur de la préfecture de police, le centre de coopération opérationnelle de sécurité (CCOS) incarne cette ambition. Refaite à neuf en 2022, cette salle de commandement ultra-sécurisée héberge des policiers, des agents de la RATP et de la SNCF qui travaillent côte à côte pour coordonner la surveillance en temps réel. Le commandant Vincent, chef du CCOS, ne cache pas le problème principal : « On a un retour de plusieurs dizaines de milliers de caméras et je n’ai pas assez de paires d’yeux pour toutes les regarder. »
C’est précisément là que l’IA est censée intervenir. Aujourd’hui, « cheminer » un suspect, c’est-à-dire le suivre d’une caméra à l’autre, peut prendre six à sept heures. Avec un algorithme capable d’identifier un vêtement, un sac ou un véhicule d’une image à l’autre, ce temps pourrait être réduit drastiquement. Anne-Florence Canton évoque le précédent du casse du Louvre : « L’IA aurait pu détecter qu’il se passait quelque chose d’anormal sur la façade, un objet et une personne qui n’avaient rien à y faire. Ensuite, elle aurait pu traquer la plaque d’immatriculation du véhicule. »
Des promesses et un trou noir budgétaire
Les partisans de la VSA mettent en avant trois applications concrètes. La détection d’objets abandonnés, d’abord, pour accélérer les levées de doute sur les colis suspects qui paralysent régulièrement le trafic ferroviaire. La gestion des mouvements de foule, ensuite, le commandant Vincent citant l’exemple des arcs électriques dans les caténaires dont les détonations sont parfois confondues avec un attentat. Le suivi de suspects en flagrant délit, enfin, pour raccourcir le délai entre le signalement et l’interpellation.
Sur la détection d’objets, les progrès semblent réels. L’algorithme confondait initialement les personnes allongées au sol avec des colis abandonnés, selon le retour des JO. « Aujourd’hui, on s’aperçoit que les algorithmes sont beaucoup plus précis et qu’on a beaucoup moins ce type d’erreur », assure Anne-Florence Canton. Mais un détail gêne dans le tableau : le coût de cette infrastructure n’a pas été communiqué. Ni le prix des licences logicielles, ni celui de la puissance de calcul nécessaire pour analyser en temps réel les flux de dizaines de milliers de caméras. Le contribuable sait qu’il sera surveillé, pas combien il paiera pour l’être.
Le fantôme de la reconnaissance faciale
Le gouvernement insiste : la reconnaissance faciale reste « totalement écartée » du dispositif. Mais cette ligne rouge rassure peu les défenseurs des libertés numériques. La Défenseure des droits s’est déjà opposée publiquement à la reconnaissance faciale dans les transports. La Quadrature du Net, association de référence sur ces questions, documente depuis des années l’usage illégal de cette technologie par la police lors de simples contrôles d’identité.
Dans une enquête publiée le 17 mars en partenariat avec le média Disclose, l’association révèle que des milliers de policiers et gendarmes utilisent déjà, au quotidien, un module de reconnaissance faciale intégré au fichier des antécédents judiciaires (TAJ) via leurs téléphones professionnels NEO. « Le ministère de l’intérieur a sciemment organisé une surveillance abusive et illégale », accuse La Quadrature du Net, qui a publié un guide juridique pour aider les citoyens à contester ces pratiques.
Le contexte législatif alourdit les inquiétudes. Un projet de loi sur les polices municipales, présenté par le même Laurent Nuñez fin 2025, prévoit d’armer les 28 000 agents municipaux de nouveaux outils de surveillance : drones, caméras embarquées, accès au fichier TAJ. Le Conseil constitutionnel a déjà censuré à deux reprises, en 2011 et en 2021, des textes similaires qui élargissaient les pouvoirs de surveillance de la police municipale.
Un calendrier sous tension
Le texte présenté ce mercredi doit encore passer devant le Parlement, où le débat s’annonce vif. Les municipales de dimanche dernier ont placé la sécurité au centre des préoccupations locales, un terreau fertile pour les partisans du « tout technologique ». À l’inverse, la CNIL a déjà mis en demeure le ministère de l’Intérieur sur ses pratiques de vidéosurveillance, et les précédents constitutionnels limitent la marge de manœuvre du gouvernement.
L’expérimentation élargie, si elle est votée, courrait jusqu’en 2030. Quatre ans pendant lesquels des algorithmes apprendront à distinguer un pickpocket d’un voyageur pressé, un colis suspect d’un sac oublié, et une détonation terroriste d’un simple arc électrique. Reste que la France deviendrait, avec la Chine et le Royaume-Uni, l’un des rares pays à déployer la surveillance algorithmique à cette échelle dans ses transports publics. Le Parlement européen, qui a adopté l’AI Act en 2024 avec des restrictions sur la surveillance biométrique dans l’espace public, observera de près la trajectoire française.