L’article 35 du présent projet de loi vise à prolonger, pour une durée de deux ans et demi, l’expérimentation de l’usage de la vidéosurveillance algorithmique, initiée pour les jeux de 2024. Cette technologie, aussi appelée « caméras augmentées » ou « vidéoprotection intelligente », permet à des algorithmes de traiter automatiquement les images issues de caméras de vidéosurveillance afin de détecter en temps réel des événements prédéterminés qui pourraient indiquer un risque grave pour la sécurité.
Cependant, comme l’indique clairement le rapport sur son utilisation pendant les Jeux de 2024, le bilan de cette expérimentation est plus que mitigé. De nombreux dysfonctionnements ont été constatés : des devantures de magasin ou des phares de voitures ont été confondus avec des départs de feux, des éléments de mobilier urbain ou des personnes statiques ont été pris pour des colis abandonnés. La détection d’armes s’est avérée inopérante et 62% des alertes se sont révélées être de faux positifs.
Malgré ce constat sans équivoque sur l’immaturité de cet outil, le choix est fait ici de prolonger son usage. Qui plus est, cette prolongation s’étend sur une période qui ne coïncide pas avec de grands événements sportifs et ne couvre même pas la durée des Jeux de 2030. Cette décision apparaît donc purement idéologique et sans véritable justification opérationnelle dans le cadre de ce projet de loi.
Ces outils d’analyse automatisée des images, en permettant un traitement massif de données à caractère personnel, y compris parfois sensibles, présentent des risques importants pour les libertés individuelles et collectives. Le déploiement de ces dispositifs dans les espaces publics pose incontestablement des menaces pour les droits et libertés fondamentaux des personnes et pour la préservation de leur anonymat. Les Jeux Olympiques ne doivent pas servir de tremplin à la normalisation de technologies de surveillance qui empiètent sur nos libertés sous couvert de sécurité.
Pour toutes ces raisons, il est proposé de supprimer cet article 35, qui n’a pas sa place dans ce projet de loi.
Enfin, je tiens à préciser que j’avais déposé un amendement de repli – malheureusement déclaré irrecevable – pour garantir que l’Etat reste propriétaire des données d’apprentissage et des algorithmes. C’est un impératif que nous devons avoir en tête car il serait anormal que ces données se retrouvent dans la nature ou sur le marché et je tiens à alerter le Gouvernement là-dessus.