Expérimentée lors des Jeux Olympiques de 2024, certains voient en celle-ci une porte ouverte à une société de surveillance généralisée. D’autres estiment qu’elle ne représente aucun danger. Qu’en est-il réellement ?

Le 17 janvier 2023, le délégué interministériel aux grands événements sportifs, Michel Cadot, déclarait au Sénat que la vidéosurveillance algorithmique devrait « sans doute être déployée de manière limitée » cet été. Cette précision était attendue tant ce dispositif expérimental, rendu possible depuis l’adoption de la loi relative aux Jeux Olympiques de 2024, le 19 mai 2023, agite fortement le débat public.

Selon l’article 10 de cette loi, les images collectées par les systèmes de vidéoprotection peuvent faire l’objet de traitements algorithmiques, jusqu’au 31 mars 2025, en vue « d’assurer la sécurité de manifestations sportives, récréatives ou culturelles qui, par l’ampleur de leur fréquentation ou par leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ». En outre, ces traitements ont pour objet « de détecter, en temps réel, des événements prédéterminés susceptibles de présenter ou de révéler ces risques et de les signaler » aux services compétents (police, gendarmerie, secours, etc.).

Selon le décret d’application, ces événements prédéterminés sont : la présence d’objets abandonnés et d’armes, le non-respect par une personne ou un véhicule du sens de circulation commun, le franchissement ou la présence d’une personne ou d’un véhicule dans une zone interdite ou sensible, la présence d’une personne au sol à la suite d’une chute, un mouvement de foule, une densité trop importante de personnes ou encore les départs de feux.

Loin d’être une nouveauté en France, la vidéosurveillance algorithmique a commencé à se répandre sur le territoire bien avant cette loi : en 2016, la ville de Toulouse testait déjà un tel système en partenariat avec IBM. Aussi, même si la vigilance doit rester de mise en la matière, tout laisse à penser que sa réglementation, en voie de clarification, reste assez contraignante pour ne pas en abuser.

Un instrument déjà au service de la smart city

Depuis quelques années, nombreuses sont les municipalités ayant fait le choix de gérer leur ville en partie grâce à la vidéosurveillance « algorithmique » ou « automatisée » (VSA). En 2022, dans un rapport intitulé Caméras dites « intelligentes » ou « augmentées » dans les espaces publics, la Cnil constatait déjà « une tendance visant à la multiplication des dispositifs » de la VSA qu’elle nomme « vidéo « augmentée » ».

Selon la définition de la Cnil, la « vidéo « augmentée » désigne des dispositifs vidéo auxquels sont associés des traitements algorithmiques mis en œuvre par des logiciels, permettant une analyse automatique. […] Il s’agit de technologie dite de ‘vision par ordinateur’ […], qui est une des branches de l’‘intelligence artificielle’, consistant à munir les systèmes de capacités d’analyse des images numériques » pour reconnaître des événements prédéterminés par ses concepteurs (comportements, mouvements, apparition d’un objet, etc.)

C’est en grande partie grâce à l’influence de la théorie de la smart city (ville intelligente) que la VSA s’est déployée localement. Devenue populaire en 2011 quand IBM a déposé la marque Smarter Cities, cette théorie a pour ambition de transformer radicalement la gestion de la ville grâce aux nouvelles technologies. La finalité de celles-ci est alors de fournir aux responsables locaux les moyens d’un pilotage centralisé du territoire « dont la déclinaison la plus aboutie est la salle de crise, combinant renseignements, informations et décisions », comme l’a écrit Jean-François Soupizet dans son article « Les villes intelligentes entre utopies et expérimentations ».

Ce pilotage centralisé est essentiellement rendu possible par la VSA permettant, à partir d’un centre d’opérations intelligent, d’offrir une vision panoptique de la ville grâce à des alertes signalant en temps réel la survenue d’événements prédéterminés. Ainsi, s’inspirant de Dijon qui est arrivée deuxième aux World Smart City Awards de 2018, Nîmes a récemment inauguré un plateau technique de 600 m2 nommé « hyperviseur » et usant de la VSA. Celle-ci permet « de gérer en temps réel la ville » au moyen d’ « analyses pour […] gérer un flux de circulation grâce à un logiciel capable de faire du comptage et de la statistique », a indiqué au journal Le Monde sa responsable, Christelle Michalot.

Une réglementation en voie de clarification

Concernant la légalité de l’utilisation de la VSA par les collectivités locales, il demeurait un vide juridique jusqu’en 2023 dont pouvaient profiter certaines municipalités. Celui-ci a récemment été comblé par le Conseil d’État, le 21 décembre 2023, à l’occasion d’un référé liberté dirigé contre la communauté de communes Cœur Côte Fleurie, accusée d’user de la VSA pour opérer de la reconnaissance biométrique.

Le juge administratif a permis aux collectivités territoriales de faire usage de la vidéo augmentée à, entre autres, deux conditions. D’une part, les fonctionnalités de reconnaissance faciale ne doivent pas être activées. D’autre part, celles qui analysent des images en fonction de critères personnels (sexe, taille, vêtements) ou de comportement peuvent être activées que si elles sont utilisées pour une relecture en différé (et non en temps réel), sur une zone et un temps limité, sans chercher à suivre de manière automatisée des personnes.

C’est quelque peu différent pour la loi relative aux Jeux Olympiques qui, avec son article 10, rend possible la détection (et donc l’analyse) en temps réel d’événements prédéterminés dont la plupart sont relatifs à des comportements individuels et collectifs. Néanmoins, ladite loi apporte plusieurs garanties visant à protéger les droits et libertés.

D’abord, les traitements algorithmiques expérimentés ne peuvent pas utiliser des systèmes d’identification biométrique et toutes autres techniques de reconnaissance faciale. Cela est conforme aux attentes de l’Union européenne qui renouvelle toujours sa volonté, dans le cadre des négociations sur l’AI Act, d’interdire ce genre de pratiques sauf exceptions strictement encadrées. Aussi, ils ne peuvent pas être mis en lien avec d’autres traitements de données à caractère personnel et aucun acte de poursuite, aucune décision individuelle ne peut être prise sur le fondement de leur analyse.

Ensuite, le public doit être préalablement informé de l’emploi de traitements algorithmiques sauf si « les circonstances l’interdisent ou que cette information entrerait en contradiction avec les objectifs poursuivis ». L’autorisation de cet emploi par les préfets doit donc être publiée en indiquant l’événement, le périmètre géographique concerné et la durée.

Sur la base de cette publication, le citoyen qui la juge illégale (si, par exemple, elle est disproportionnée par rapport aux objectifs poursuivis) ou allant à l’encontre de ses droits et libertés pourra donc former un référé d’urgence devant le juge administratif pour tenter de suspendre rapidement l’autorisation.

Enfin, la Cnil doit être informée tous les trois mois de la mise en œuvre de l’expérimentation. De plus, le gouvernement devra remettre au parlement, avant le 31 décembre 2024 et après avis de la Cnil, un rapport d’évaluation de l’expérimentation dont le contenu sera déterminé par décret en Conseil d’État. C’est sur la base de cette évaluation que le législateur pourrait décider de pérenniser ou non ce dispositif expérimental, ce que craignent nombre d’associations de défense des droits et libertés.

Néanmoins, dans sa décision du 17 mai 2023 déclarant cette expérimentation conforme à la constitution, le Conseil constitutionnel a laissé entendre que sa décision ne serait pas nécessairement la même s’il devait, à l’avenir, examiner une loi pérennisant un tel dispositif. Son choix se ferait aussi « à la lumière de cette évaluation », a-t-il expliqué.

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.