- France
- Sécurité
C'est quoi, la vidéosurveillance algorithmique ?
Le 21 mars à l'Assemblée nationale sera débattu le projet de loi relatif aux Jeux olympiques et paralympiques de 2024. Ce texte prévoit d'introduire des « systèmes de vidéoprotection » pouvant faire l'objet de « traitements algorithmiques ». On a demandé aux intéressés en quoi consiste donc la vidéoprotection algorithmique.
Casting :
Marie Duboys-Fresney, adjointe à la cheffe du service des affaires économiques de la CNIL.
Ronan Évain, directeur exécutif chez Football Supporter Europe.
Noémie Levain, chargée d’analyses juridiques et politiques chez La Quadrature du Net.
Élisa Martin, députée de la 3e circonscription de l’Isère, LFI-NUPES.
Guillaume Vuilletet, député de la 2e circonscription du Val-d’Oise, Renaissance, rapporteur du texte de loi.
Kilian Valentin, porte-parole de l’Association nationale des supporters.
Léo Walter, député de la 2e circonscription des Alpes-de-Haute-Provence, LFI-NUPES.
En quoi consiste la technologie dite de la « vidéosurveillance algorithmique », ou des « caméras augmentées » introduite par le texte ?
Marie Duboys-Fresney : Il n’y a pas un seul et unique terme scientifique, technique ou juridique qui permet de définir ces outils. La CNIL les désigne sous le terme de caméras ou vidéos « augmentées ». Ces termes visent des dispositifs vidéo (caméras déjà déployées dans les espaces publics, de vidéoprotection, fixées sur des drones ou de caméras spécialement installées), équipées de logiciels d’intelligence artificielle ou traitement algorithmique, qui ont pour fonctionnalité l’analyse automatisée des images afin de permettre l’identification d’évènements, de comportements, d’objets…
Noémie Levain : L’idée est d’automatiser le traitement des images de vidéosurveillance. Aujourd’hui, ce sont des humains qui s’en occupent. Cette expérimentation permet de collecter des données et d’entraîner les algorithmes.
Guillaume Vuilletet : Vidéosurveillance algorithmique ou caméras augmentées, on parle bien de la même chose. La notion d’image augmentée est à mon sens la plus proche de la réalité. Ce sont des technologies que l’État de droit se doit d’encadrer plutôt que de les maintenir dans un flou artistique.
Léo Walter : Les algorithmes sont amenés à identifier des « comportements anormaux ». Comment, et qui définit la norme ? Dans une gare ou dans un stade, le but sera d’identifier les pratiques dites de « maraudage ». Le premier visé sera un SDF assis dans son coin.
Ronan Évain : Avec la vidéosurveillance algorithmique comme avec la reconnaissance faciale, il existe une surreprésentation de « faux positifs » parmi les minorités de genre ou ethniques. Ces minorités sont donc plus susceptibles d’être identifiées comme ayant un comportement dangereux, le système est donc discriminant par nature.
Pourquoi mettre en place une loi sur la vidéosurveillance algorithmique dans le cadre de l’organisation des Jeux olympiques et paralympiques ?
Guillaume Vuilletet : Un événement aussi sensible que les JOP présente des risques en matière de terrorisme. Il faut des règles exceptionnelles qui valent pendant cette période exceptionnelle.
Ronan Évain : Utiliser des événements sportifs pour justifier des mesures liberticides est un grand classique dans les régimes autoritaires. On attend mieux d’un pays démocratique comme la France. Ce tour de vis sécuritaire est une erreur politique et stratégique fondamentale.
Élisa Martin : Le gouvernement cherche à créer les conditions pour que culturellement, les Français acceptent une surveillance généralisée. Ce n’est pas dit par le gouvernement, mais au cours de nos nombreuses auditions, comme avec la directrice des Libertés publiques du ministère de l’Intérieur, on sent bien que l’enjeu est d’amener à terme la question de la reconnaissance faciale.
Noémie Levain : Ce qui nous surprend presque, c’est que cette loi ne soit pas arrivée avant. La technologie de la vidéosurveillance algorithmique existe déjà depuis quelques années, un marché s’est constitué. Des villes et des entreprises l’utilisent déjà, sans cadre légal. Cela fait longtemps que l’industrie et la police attendent des réglementations pour aller plus loin dans l’expérimentation. Les entreprises qui développent ces algorithmes manquent de données pour les entraîner, elles pourront désormais accéder aux images de vidéosurveillance de nombreux évènements.
Le principe d’une expérimentation ouvre-t-il la voie à une pérennisation du dispositif ?
Marie Duboys-Fresney : Expérimentation ne veut pas dire pérennisation. Cette expérimentation permettra d’éprouver la nécessité, l’efficacité, l’acceptabilité de ce dispositif.
Élisa Martin : Le préfet, qui est un délégué interministériel aux JOP, parle de passage dans le droit positif. Donc cette expérimentation est bien un ballon d’essai.
Léo Walter : On a vu ça avec la question de l’état d’urgence : les précautions dans l’usage de ces mesures furent abandonnées une fois ces mesures retranscrites dans le droit commun. Le processus est le même : une loi exceptionnelle autour d’un événement exceptionnel. Une fois passée, acceptée, on peut se séparer des précautions qui rendaient acceptables la loi.
Guillaume Vuilletet : Une expérimentation permet justement de ne pas pérenniser un dispositif, il ne faut pas tout inverser. Il est vicié de dire que cette loi est irréversible. Ce qui l’est bel et bien en revanche, ce sont les nombreux acteurs qui utilisent déjà ces technologies.
Élisa Martin : On a interrogé les porteurs de la loi, et ils ne cachent pas vouloir généraliser ce cadre, c’est parfaitement assumé. On a demandé quels critères feraient que cette expérience soit positive, personne n’a été en mesure de nous répondre, si ce n’est que sera retenu l’avis des forces de l’ordre.
Guillaume Vuilletet : Si on disait qu’on expérimentait un système pour le mettre au frigo par la suite, cela n’aurait aucun sens. Si l’appareil est valide et efficace pour gérer la sécurité, il sera conservé. S’il n’est pas efficace et présente des biais, il faudra y renoncer.
Quelle est la différence entre l’usage de la vidéosurveillance algorithmique et celui des données biométriques interdit par le texte de loi ?
Marie Duboys-Fresney : La caméra augmentée a vocation à analyser automatiquement des comportements ou objets dans l’espace public, sans avoir pour finalité d’identifier les personnes, ce qui est l’objet d’un dispositif de reconnaissance faciale. La reconnaissance faciale traite de données biométriques, protégées par la réglementation applicable en matière de données personnelles (le RGPD et la loi informatique et libertés). Les caméras augmentées n’ont pas vocation à traiter ces données.
Noémie Levain : L’alinéa 5 de l’article 7 qui précise que ces dispositifs « ne traitent aucune donnée biométrique et ne mettent en œuvre aucune technique de reconnaissance faciale » est un scandale. Le discours des industriels est directement repris : les données biométriques sont des données comportementales et physiologiques. Donc du moment que l’algorithme crée une alerte pour identifier un corps, il s’agit d’un traitement de données biométriques.
Guillaume Vuilletet : Cette loi ne crée pas un précédent qui permettra l’usage de données biométriques : elle en interdit explicitement l’usage et celui de la reconnaissance faciale. Étant donné la puissance de ces technologies et leurs risques évidents, peut-on les encadrer ou doit-on les interdire ?
Noémie Levain : Dire que la technologie utilisée est moins grave car il n’y a pas usage de données biométriques, c’est faux. L’usage de la reconnaissance faciale est associé dans l’imaginaire collectif à la surveillance de masse. On nous présente donc comme moins dangereux un dispositif techniquement similaire, fonctionnant avec les mêmes algorithmes.
Quels contrôles sont prévus sur l’usage de ce dispositif par les forces de l’ordre ?
Guillaume Vuilletet : La CNIL participera à la définition de l’usage des caméras augmentées. La prédétermination des événements relèvera a minima de deux catégories d’événements : l’abandon d’un bagage abandonné et les mouvements de foule. La deuxième chose est de déterminer les périmètres de manière précise, ce qui sera de la compétence des préfets. On est sur quelque chose d’extrêmement contrôlé.
Élisa Martin : Il y a une grande rigueur en France sur ces sujets-là. La garantie, on peut considérer qu’on l’a, car les policiers et les gendarmes respectent la loi. Cela n’en constitue pas moins un cheval de Troie sécuritaire. Demain, il y aura incontestablement la possibilité technique de faire des recoupements avec différents fichiers, comme celui du traitement des antécédents judiciaires (TAJ).
Noémie Levain : Nous n’avons aucune garantie quant à d’éventuels recoupements des fichiers par la police si ce n’est les contrôles de la CNIL. Le gouvernement dit interdire le recours à la reconnaissance faciale, mais cette pratique a déjà lieu dans la police avec l’utilisation du fichier de traitement des antécédents judiciaires. La police et la gendarmerie y ont recours plus de 600 000 fois par an. La technologie est intrinsèquement dangereuse. Les garanties légales sur le TAJ et le renseignement, avec contrôle de la CNIL et des magistrats, ne fonctionnent pas. On peut donc douter des garanties contre un usage disproportionné de ce dispositif par la police. La seule prévention serait d’interdire cette technologie.
Guillaume Vuilletet : Les outils sont là. Nos données biométriques sont utilisées en permanence dans nos téléphones portables, nous les subissons au quotidien. Pourquoi renoncer à la technologie quand elle est efficace ? Il faut au contraire légiférer pour que son usage soit encadré et protégé.
Marie Duboys-Fresney : La première garantie est l’interdiction prévue par le projet de loi de procéder à des rapprochements, interconnexions ou mises en relation automatisées avec d’autres fichiers. Les traitements algorithmiques ainsi mis en œuvre ne permettent pas d’aller chercher par exemple une identité dans d’autres fichiers, comme le TAJ. Ce serait un détournement de finalité et une violation de ce que prévoit en l’état le projet de loi.
Noémie Levain : Le secret industriel risque d’entraver le travail de la CNIL. Un article du Monde diplomatique de février sur le sujet explique qu’une fonctionnalité dans le logiciel de l’entreprise Briefcam permet de cacher toutes les données des fonctionnalités illégales en cas de contrôle. La reconnaissance faciale n’est qu’une case à cocher dans le logiciel de cette entreprise. La vidéosurveillance algorithmique et l’identification biométrique reposent sur les mêmes technologies, avec les mêmes usages, seule diffère la finalité.
Guillaume Vuilletet : Dire que le contrôle de l’action des forces de l’ordre ne fonctionne pas n’est pas vrai. Il est paradoxal d’affirmer que tous les contournements sont possibles alors que la loi vise à en organiser le contrôle. Si on juge que tout est déjà fait dans l’illégalité la plus complète et que nous sommes fichés de partout, quelle utilité l’État aurait-il de se doter d’une loi très contraignante, pour ensuite contourner toutes les dispositions existantes dans le droit ?
Marie Duboys-Fresney : Le système d’autorisation préfectorale permet un contrôle de légalité par le préfet au moment de délivrer l’autorisation, la CNIL a des pouvoirs de contrôle comme elle le fait sur la vidéoprotection traditionnelle. La CNIL pourrait donc faire usage de ses pouvoirs de sanctions si des manquements étaient relevés. Chaque notification relevée par les dispositifs devra être enregistrée pour s’assurer qu’il n’y ait pas de détournement du dispositif.
Existe-t-il un risque que ces technologies soient un jour employées contre des militants politiques ?
Élisa Martin : Le Conseil d’État reconnaît le risque que les manifestations à caractère revendicatives puissent être concernées par ces logiques de surveillance (Avis consultatif du 22 décembre 2022 sur un projet de loi relatif aux Jeux olympiques et paralympiques de 2024 et portant diverses autres dispositions, NDLR).
Marie Duboys-Fresney : Les manifestations sociales ne sont pas visées par ce texte, le gouvernement par les termes du projet de loi vise des événements culturels temporels.
Noémie Levain : Il y a malgré tout un risque qu’à terme, les algorithmes soient utilisés contre les oppositions politiques. Cette loi ne le permet pas encore, mais le risque pour le futur existe, d’autant que l’usage de drones par les forces de l’ordre lors de manifestations est légal. Cette loi est à notre sens une première étape, une loi est déjà dans les tuyaux pour pérenniser certains usages et les inscrire dans le droit commun (une mission d’information sur les enjeux de l’utilisation d’images de sécurité dans le domaine public dans une finalité de lutte contre l’insécurité est en cours, menée par Philippe Latombe membre de la CNIL et député MODEM et Philippe Gosselin, LR, ex-membre de la CNIL, NDLR).
Guillaume Vuilletet : Cette mission d’information ne donnera pas forcément lieu à une loi et vise à permettre un meilleur contrôle de ces technologies invasives. L’enjeu est de rendre conforme au RGPD certaines technologies. Refuser de regarder le caractère légal de ces technologies pour échapper à leurs usages est un leurre. Un usage débridé et anarchique de ces technologies serait au contraire dangereux. Expérimentons toutes les mesures de contrôle de ces technologies pour qu’en soit fait un usage vertueux.
Qu’aurait changé un tel dispositif lors de la finale de Ligue des champions au Stade de France le 25 juin 2022 ?
Ronan Évain : On justifie la surveillance algorithmique par le fiasco de la finale de Ligue des champions au Stade de France. Or les difficultés d’organisation et le goulot d’étranglement aux abords du stade relèvent d’erreurs humaines et d’un manque de personnel humain sur le terrain.
Kilian Valentin : Le rapport qui pointe la défaillance organisationnelle et de la gestion de la police dans cette finale n’est pas la vidéosurveillance qui aurait permis de pallier ces manquements.
Guillaume Vuilletet : Au contraire, il aurait été possible d’anticiper une accumulation de personnes et organiser différemment les transports. Les caméras augmentées sont un outil considérable pour ce genre de risques. Tous les spécialistes en la matière affirment que cela permet de comprendre au mieux ce qu’il se passe. Par exemple, à Nice lors des attentats de 2016, le camion utilisé comme arme est passé devant des dizaines de caméras. Malgré les caméras, il n’a pas été analysé comme un facteur de risque, tandis qu’un logiciel l’aurait fait. C’est dommage que cette technologie n’ait pas été présente à ce moment-là.
Élisa Martin : Avec ou sans le fiasco du Stade de France, le gouvernement aurait proposé la même loi. Le recours à ces technologies est disproportionné et rentre en contradiction avec le droit européen. Nous saisirons donc le Conseil constitutionnel à la fin de ce processus.
Kilian Valentin : Ce projet est un non-sens. Quelle est la finalité, au-delà de cette expérimentation ?
Guillaume Vuilletet : La finalité de cette loi est de garantir au mieux la sécurité des JO et des événements autour. Si ces outils s’avèrent efficaces, contrôlables et sécurisés, il est possible que des lois viennent ensuite les pérenniser.
Ronan Évain : Si des pays démocratiques ne sont pas capables d’avoir une autre vision et d’organiser de grands événements sportifs dans un cadre démocratique, cela démontre que ces grands événements sont par essence antidémocratique. La France est en train de rater le pari d’organiser des JO sans répercussions sur les libertés publiques.
Propos recueillis par Baptiste Brenot