Skip to main content

    Synthèse du rapport d’évaluation de l’expérimentation de la vidéosurveillance intelligente

    En 2023, la loi du 19 mai a ouvert la voie à une expérimentation de la vidéosurveillance intelligente, destinée à tester l’efficacité de traitements algorithmiques appliqués en temps réel aux images captées par des caméras de vidéoprotection. Cette initiative, née dans la perspective des Jeux olympiques et paralympiques de 2024, répondait à un double objectif : renforcer la sécurité face à d’éventuelles menaces (terrorisme, actes malveillants…) et évaluer l’impact de cette nouvelle technologie sur les libertés publiques.

    Contexte et finalités de l’expérimentation

    La loi encadre strictement cette expérimentation, qui s’est achevée le 31 mars 2025. Son champ d’application est circonscrit aux « manifestations sportives, récréatives ou culturelles » particulièrement exposées à des risques d’atteintes graves à la sécurité des personnes. Les opérateurs (préfecture de police, SNCF, RATP, commune de Cannes) ont été autorisés à déployer des algorithmes sur leurs réseaux de caméras pour détecter en temps réel des événements prédéterminés : intrusion dans une zone non autorisée, objet abandonné, mouvement de foule, densité excessive, etc. La reconnaissance faciale et les traitements biométriques sont formellement exclus.

    Un comité d’évaluation, composé de parlementaires, d’experts (protection des données, technologies numériques, libertés publiques) et de représentants de services utilisateurs, a été chargé d’établir un rapport. Trois axes principaux structuraient ses travaux :

    1. Performances techniques des traitements (taux de détection, nombre de fausses alertes) ;

    2. Intérêt opérationnel (réelle plus-value pour la sécurité) ;

    3. Impacts sur les libertés publiques et perception par le public.

    Organisation et déploiement

    Afin de sélectionner les prestataires pouvant fournir ces solutions d’IA, l’État a cédé un marché public divisé en lots géographiques et fonctionnels. Wintics a principalement équipé l’Île-de-France (préfecture de police, RATP, SNCF) ; la ville de Cannes a recouru à Videtics. Les algorithmes devaient se limiter à signaler un événement (intrusion, mouvement anormal…) sans aucune identification d’individus.

    L’expérimentation s’est déroulée en plusieurs phases :

    • Calibrage (ou paramétrage) : les caméras existantes ou nouvellement installées de manière « tactique » étaient configurées afin de fixer les zones à surveiller et les seuils déclenchant une alerte.

    • Mise en service opérationnelle pendant des événements précis : Roland-Garros, Festival de Cannes, concerts ou matches, puis Jeux olympiques et paralympiques, et enfin certains rassemblements ponctuels (marchés de Noël, marathons, etc.).

    • Recueil des observations : notamment sur la proportion d’alertes pertinentes (vrais positifs) ou de signalements erronés (faux positifs).

    Le déploiement a été plus poussé en Île-de-France (jusqu’à plusieurs centaines de caméras activées) tandis que la commune de Cannes a testé une vingtaine de caméras. Le temps de calibrage, la qualité des caméras et la manière de gérer les alertes (salle dédiée ou non) ont varié selon les opérateurs.

    Performances techniques contrastées

    Les résultats diffèrent selon les cas d’usage et les contextes :

    1. Intrusion et circulation anormale
    • Les algorithmes se révèlent plutôt fiables pour détecter l’accès non autorisé à une zone sensible (par exemple, quelqu’un qui franchit les voies ferrées).
    • Le taux de « faux positifs » (alertes injustifiées) reste modéré, mais il dépend étroitement d’un bon paramétrage pour éviter qu’un agent d’entretien ou un passant en bord de zone ne déclenche une alarme.
    1. Densité de personnes et mouvements de foule
    • L’IA peut détecter une densité inhabituelle dans une gare ou un stade, mais l’opérateur doit ajuster le seuil : s’il est trop bas, les fausses alertes deviennent envahissantes ; trop haut, il ne signale aucune anomalie.
    • Quant aux mouvements de foule réellement dangereux (bousculade, panique), l’algorithme peine à discriminer un simple regroupement d’une situation critique.
    1. Objets abandonnés
    • Les résultats sont inégaux : beaucoup de fausses alertes, à cause de la confusion avec du mobilier urbain ou des objets d’entretien.
    • Malgré un taux d’erreurs élevé, certains opérateurs jugent l’outil prometteur pour repérer des colis suspects, car il pourrait accélérer la réaction en cas de menace avérée.
    1. Départ de feu et personne au sol
    • Les performances sont jugées très insuffisantes. Le système a trop souvent confondu un reflet ou un gyrophare avec une flamme, et peiné à distinguer une personne volontairement assise d’une victime qui vient de chuter.

    Ces difficultés tiennent notamment à l’emplacement des caméras, à la luminosité, au calibrage et à l’entraînement initial des algorithmes, qui ne continuent pas d’apprendre au fil du temps.

    Intérêt opérationnel : un apport réel mais limité

    Le comité conclut à un intérêt globalement faible en période d’hyperprésence policière, comme pendant les Jeux olympiques : de nombreux effectifs sur le terrain devancent souvent les alertes IA. En revanche, lorsqu’il n’y a pas assez d’agents de sécurité pour surveiller chaque zone, l’IA joue un rôle précieux pour signaler automatiquement une situation inhabituelle.

    Quelques exemples concrets :

    • À la SNCF, l’IA a permis de détecter des intrusions sur les voies. Dans un cas, la patrouille SUGE (sûreté ferroviaire) a pu intervenir rapidement.

    • À la RATP, on souligne surtout l’aide à la vigilance sur des zones peu couvertes, mais le nombre d’interventions reste faible.

    • À Cannes, hormis de multiples alertes peu utiles durant le Festival (les personnes détectées étaient souvent des personnels autorisés), la seconde phase a été plus concluante, notamment pour la détection d’armes factices.

    Selon les opérateurs, l’IA est un complément d’un dispositif humain, mais ne se substitue pas à lui. Les personnels (policiers, opérateurs vidéo) se déclarent plutôt favorables à poursuivre l’expérimentation, surtout si des améliorations techniques sont apportées (réduction des fausses alertes, calibrage plus long).

    Acceptation et libertés publiques

    La loi interdit explicitement la reconnaissance faciale et l’analyse biométrique. Les associations de défense des libertés (La Quadrature du Net, Ligue des droits de l’Homme) demeurent toutefois attentives : elles craignent un « premier pas » vers un système de surveillance plus poussé. Le comité note que le grand public a peu réagi, faute de campagne d’information massive.

    Le rapport souligne le strict respect du RGPD, via un contrôle humain permanent et des durées de conservation limitées. La CNIL a validé chaque AIPD (analyse d’impact relative à la protection des données) pour être sûr qu’aucun croisement de données plus intrusif n’intervienne.

    Conclusion et perspectives

    Au terme de cette évaluation, le comité estime que l’expérimentation, dans sa forme actuelle, ne porte pas d’atteinte grave aux libertés publiques. Ses performances techniques apparaissent toutefois hétérogènes. L’intérêt opérationnel le plus net concerne la détection d’intrusions et la régulation de flux, tandis que la détection d’incidents complexes (départ de feu, mouvement de foule réellement dangereux, chute) reste peu fiable pour le moment.

    Le rapport préconise :

    1. Une prolongation éventuelle de l’expérimentation pour approfondir le calibrage, améliorer la détection et mieux former les utilisateurs.

    2. Un renforcement de l’information du public, afin que la population comprenne la finalité du dispositif et ses limites.

    3. Un débat juridique sur la reconduction pérenne de tels traitements : l’opportunité d’étendre ces cas d’usage ou de limiter strictement l’expérimentation reste un choix politique.

    4. Une vigilance accrue quant à l’évolution des technologies (par exemple, une IA auto-apprenante) et aux risques de glissements futurs vers la reconnaissance de traits individuels.

    En définitive, si l’IA peut contribuer à mieux repérer certains risques, elle nécessite un encadrement solide, une formation rigoureuse du personnel et un usage raisonné, au service d’une sécurité proportionnée et d’une préservation fiable des libertés.

    Nous contacter

    Securitas met son expertise en matière de sécurité à votre disposition à chaque étape. Nous réalisons gratuitement une analyse de vos risques professionnels, et nous élaborons pour vous la solution de sécurité la plus adaptée à vos besoins.

    * = champs obligatoires

    En soumettant ce formulaire, vous acceptez le traitement de vos données personnelles. En cas de questions ou demandes relatives à l’utilisation et/ou aux traitements de données personnelles vous pouvez contacter le délégué à la protection des données à l’adresse suivante : delegue.protectiondesdonnees@securitas.fr

    En soumettant ce formulaire, vous acceptez le traitement de vos données personnelles. En cas de questions ou demandes relatives à l’utilisation et/ou aux traitements de données personnelles vous pouvez contacter le délégué à la protection des données à l’adresse suivante : delegue.protectiondesdonnees@securitas.fr

    Votre navigateur n'est pas pleinement compatible avec notre site web. Pour le consulter dans les meilleures conditions nous vous recommandons d'utiliser Google Chrome, Mozilla Firefox, Apple Safari, ou Microsoft Edge.