L'Assemblée nationale doit adopter mardi une "loi olympique" en vue des JO de Paris en 2024. Parmi les dispositions de celle-ci, l'article 7, le plus controversé, vise à autoriser la vidéosurveillance automatisée (VSA), qui ambitionne de détecter plus efficacement des comportements anormaux grâce à des algorithmes. Une mesure qui inquiète la gauche et les organisations de défense des droits de l'Homme.
Ouverture des commerces le dimanche, implantation d'un centre de santé en Seine-Saint-Denis, enquête administrative sur les futurs accrédités… C’est une loi fourre-tout que l’Assemblée nationale doit adopter mardi 28 mars , lors d'un vote solennel, pour préparer les JO-2024. Mais l'articl e 7 de cette loi fait particulièrement débat : il prévoit qu’à titre expériment al, le recours à la vidéosurveillance algorithmique (VSA) soit autorisé pour sécuriser ces Jeux olympiques. Les associations de défense des droits de l ’ H omme pointent du doigt une technologie dangereuse.
Lors de la phase d'examen général, cet article du projet de loi olympique a été adopté avec 59 voix pour (majorité présidentielle ; Les Républicains ; Rassemblement national) face à 14 contre (Nouvelle Union populaire écologique et sociale). Il prévoit à titre expérimental que la sécurisation "de manifestations sportives, récréatives ou culturelles" d'ampleur puisse être assurée au moyen d’ algorithmes .
Une technologie en question
"La vidéosurveillance algorithmique est une nouvelle technologie qui se base sur l’utilisation de logiciels informatiques capables d’analyser en temps réel les images capturées par les caméras de surveillance", explique Arnaud Touati, avocat spécialisé dans le droit numérique. "Les algorithmes utilisés dans les logiciels sont notamment basés sur une technologie d'apprentissage automatique , ce qui permet aux systèmes de VSA , au cours du temps , de continuer à s'améliorer et de s’adapter à de nouvelles situations."
Les tenants de cette technologie vantent une capacité à anticiper des mouvements de foule ou la détection de bagages abandonnés ou de jets de projectiles. En comparaison d'une vidéosurveillance classique, tout est automatisé avec des algorithmes chargés de l'analyse – ce qui permet, selon les défenseurs de cette technologie, de limiter les erreurs ou inattentions humaines .
"Alors que la France se présente en championne des droits humains partout dans le monde, sa décision d’autoriser la surveillance de masse assistée par intelligence artificielle pendant les Jeux olympiques entraînera une offensive généralisée contre le droit à la vie privée, le droit de manifester et les droits aux libertés de réunion et d’expression", a dénoncé dans un communiqué Amnesty International après l'adoption de l'article en question.
La France, futur héraut de la vidéosurveillance en Europe ?
Katia Roux, spécialiste Technologies et Droits humains de l'ONG, précise les craintes que cristallise la technologie : "Au regard du droit international, la législation doit répondre strictement à des critères de nécessité de proportionnalité. Or là , le législateur n'en a pas fait la démonstration", souligne-t-elle. "On parle d'une technologie d'évaluation, qui doit évaluer les comportements et les catégoriser comme à risque dans le but de prendre des mesures par la suite."
"Cette technologie n'est pas légale aujourd'hui. En France, il y a eu des expérimentations mais sans jamais le fondement légal que cette loi propose de créer", rappelle-t-elle. "Au niveau européen non plus. Cela fait même partie des discussions en cours au Parlement européen sur les technologies et la régulation des systèmes d'intelligence artificielle. La législation pourrait donc aussi violer le règlement européen en cours d'élaboration."
"En adoptant cette loi, la France se poserait en championne de la vidéosurveillance au sein de l'UE et créerait un précédent extrêmement dangereux. Cela enverrait un signal extrêmement inquiétant auprès d'États qui pourrait être tenté s d'utiliser cette technologie contre leur propre population", poursuit -t-elle.
Des biais discriminatoires ?
L’u ne des craintes est que l'algorithme, en apparence froi d et infaillible, ne recèle en réalité des biais de discriminations : "Ces algorithmes vont être entraînés à travers un jeu de données décidées et conçues par l'être humain. Elles pourront donc intégrer t out simplement les biais discriminatoires des personnes qui les ont conçues et pensées", note Katia Roux.
"La VSA a déjà été utilisée à des fins racistes , notamment par la Chine , dans la surveillance exclusive des Ouïghours, minorité musulmane présente dans le pays", rappelle l’avocat Arnaud Touati. "Du fait de la sous-représentation des minorités ethniques dans les données fournies aux algorithmes pour leur apprentissage, il existe des biais discriminatoires et racistes non négligeables. D’après une étude du MIT, l'erreur de reconnaissance faciale est certes de 1 % pour les hommes blancs, mais elle est surtout de 34 % pour les femmes noires."
Arnaud Touati veut cependant voir le verre à moitié plein : " L ’utilisation de la VSA lors d’év é nements d’une telle ampleur pourrait également mettre en lumière les biais discriminatoires, misogynes et racistes de l’algorithme en identifiant , à de trop fortes occurrences pour être justes , les personnes issues de minorités comme suspects potentiels", explique -t-il.
Somm é par l'opposition de gauche à l'Assemblée nationale de rassurer quant aux situations qui seraient détectée s, le ministre de l'Intérieur, G é rald Darmanin, a ironisé : "Pas les [personnes portant des] sweats à capuche." Du côté du gouvernement français, on estime que les limites posées par la loi – l'absence de reconnaissance faciale, la protection des données – suffiront à empêcher tout e dériv e.
"Nous avons mis des gard e- fous, pour que les appels d’offres soient uniquement réservés à des entreprises qui respectent un certain nombre de règles, dont l’hébergement des données sur le territoire national, le respect de la Cnil et d u RGPD [R èglement général sur la protection des données, NDLR] ", défend le député Modem Philippe Latombe, qui a cosigné un amendement avec le Rassemblement national pour que l'appel d'offres priorise les entreprises européenne s . "Clairement, nous ne voulons pas que ce soit une entreprise chinoise qui fasse du traitement des données en Chine et utilise les données pour faire autre chose."
"Les garanties apportées par le gouvernement ne sont pas de nature à nous rassurer. En réalité , il y a pas vraiment d'amendement possible , et cette technologie est , en so i, problématique et dangereuse pour les droits humains", estime cependant Katia Roux. "Elle le restera tant qu'il n'y aura pas eu une sérieuse évaluation , tant qu'il n'y aura pas eu de démonstration de la nécessité et de la proportionnalité de son usage, et tant qu'il n'y aura pas eu de véritable débat avec les différents acteurs de la société civile sur la question."
Le sport, éternel terrain d'expérimentation
Si les JO sont clairement l'év é nement visé, l'expérimentation pourra commencer dès la promulgation de la loi et s'arrêtera quatre mois après la fin des Jeux paralympiques, le 31 décembre 2024. Elle pourrait donc concerner un large panel d'év é nements , à commencer par la prochaine Coupe du monde de rugby , en septembre-octobre.
L es opposants à la VSA craignent de voir son usage, d'abord exceptionnel, généralisé à terme. Les événements sportifs servent souvent de terrain d'expérimentation en matière de maintien de l'ordre, de sécurité et de nouvelles technologies. Ainsi , les JO de Londres avaient contribué à généralis er la surveillance dans la capitale britannique.
"On a peur de voir une généralisation qui s’étendra au-delà de cette période d'exception", explique Katia Roux, qui rappelle qu'après la Coupe du monde de football de 2018 en Russie, les technologies de reconnaissance vocale qui avai en t été autorisé e s ont servi à réprimer l'opposition.
Enfin, Amnesty International s'inquiète qu'à terme, la vidéosurveillance dérive vers de la surveillance biométrique ou vocale : "La reconnaissance faciale n'est qu'une fonctionnalité à activer", avertit Katia Roux.
La loi olympique n'a pas encore terminé son chemin législatif. Outre le vote solennel de mardi à l'Assemblée nationale, le texte doit encore faire la navette avec le Sénat qui l'avait précédemment appro uv é , mais en des termes différents . J usqu'à ce que les deux Chambres se mettent d'accord.
Peter O'Brien de Tech 24 a contribué à cet article.