Le réseau social de Mark Zuckerberg cherche à interdire à Voyager Labs d’utiliser Facebook et Instagram pour y collecter des informations. Cette entreprise avait déjà été épinglée en 2021 pour avoir collaboré avec la police de Los Angeles afin de tester des pratiques controversées de "police prédictive".
Facebook ne veut plus entendre parler de Voyager Labs. Le géant des réseaux sociaux a entamé, jeudi 12 janvier, une procédure judiciaire pour interdire à cette société d’analyse des réseaux sociaux d’utiliser Facebook ou Instagram.
Le crime de cette entreprise d’origine israélienne ? Avoir "indûment collecté des données depuis Facebook, Instagram et d’autres plateformes", assure Meta, la maison mère du réseau social, dans son communiqué annonçant l’action en justice.
Faux comptes pour vrai aspirateur de données
Voyager Labs, qualifiée de société "d’extraction de données et de surveillance" par Facebook, est accusée d’avoir obtenu ces informations en créant de faux comptes afin de pouvoir avoir accès à des groupes et des pages Facebook privés. Un comportement qui contreviendrait aux règles d’utilisation du réseau social de Mark Zuckerberg.
Les informations ainsi glanées sont ensuite passées à la moulinette des algorithmes maison de Voyager Labs pour obtenir "une meilleure compréhension des interactions et des relations entre les individus", d’après le site officiel de cette entreprise.
Une formulation policée du cœur de métier de cette structure : être une Madame Irma 2.0 du comportement humain. C’est pour cet aspect prédictif que Voyager Labs s’est fait épingler une première fois en 2021.
Le quotidien britannique The Guardian en avait fait l’incarnation d’un nouvel "écosystème d’entreprise tech" vendant du rêve dopé à l’intelligence artificielle à des autorités policières en quête d’outils pour mieux prévenir ou prédire la criminalité.
En l’occurrence, la police de Los Angeles avait testé pendant plusieurs mois le système de "police prédictive" de Voyager Labs en 2019. Par la suite, les forces de l’ordre californiennes avaient négocié pendant plus d’un an la signature d’un contrat à long terme qui n’a finalement pas abouti en raison de réductions budgétaires liées à la pandémie de Covid-19.
"Voyager Labs appartient à cette famille d’entreprises dont certaines sont devenues très grandes et connues – comme Palantir ou PredPol – qui assurent utiliser la puissance des algorithmes pour faciliter le travail de la police en analysant les données publiques disponibles sur Internet", résume Griff Ferris, spécialiste de l’utilisation de l’intelligence artificielle dans le domaine de la justice criminelle pour l’ONG britannique Fair Trials.
Chasser des "terroristes" ou contrôler une épidémie
Voyager Labs proposait de pousser le bouchon de la surveillance des réseaux un peu plus loin, d’après les documents internes obtenus par le Brennan Center for Justice, une association américaine de soutien juridique.
Leurs arguments de vente suggéraient, notamment, d’utiliser des faux profils pour effectuer des missions infiltrées numériques afin d’avoir accès à des espaces privés sur les réseaux sociaux. Voyager Labs affirmait que cette chasse aux informations – données d’identité, photos, messages, conversations – permettait à ses algorithmes de prédire quels individus étaient les plus susceptibles de commettre un crime ou, par exemple, de basculer dans le terrorisme.
À l’appui de ses dires, la société avance notamment le cas de Bahgat Saber, un ressortissant égyptien vivant à New York et proche des Frères musulmans qui avait appelé, au début de la pandémie de Covid-19, à "contaminer volontairement les employés des ambassades et consulats égyptiens". En analysant sa toile de relations sur Facebook et Twitter, Voyager Labs soutient que cet individu présentait une menace terroriste car il connaissait au moins deux employés du gouvernement américain susceptibles d’être influencés.
Voyager Labs permettrait aussi de mieux contrôler les pandémies comme celle du Covid-19. Avec un opportunisme certain, la société explique ainsi dans sa présentation de 2020 avoir reconstruit les interactions sociales de Mattia – un Italien identifié "comme le patient zéro de l’épidémie en Italie" (alors qu’il ne serait au mieux que le patient 1… et encore) – pour comprendre comment le virus s’est propagé dans le pays. Résultat : le plus probable serait qu’il a contaminé en priorité… ses collègues de bureau.
Culpabilité par association
Les forces de l’ordre de Los Angeles semblent avoir utilisé cette machine à prédiction pour analyser "500 profils d’utilisateurs de Facebook et des milliers de messages", souligne The Guardian. Dans les documents obtenus par le Brennan Center for Justice, un policier affirme que cet outil aurait permis d’identifier "quelques nouvelles personnes d’intérêt".
"Tout cela ressemble quand même beaucoup à un système de culpabilité par association ou par amitié qui n’est pas très soucieux de la présomption d’innocence", regrette Griff Ferris. Il suffirait d’être ami sur Facebook avec les mauvaises personnes pour se retrouver dans le collimateur de cet outil. "Attention à ne pas confondre corrélation et causalité. Ce n’est pas parce qu’il existe un lien avec des individus suspects ou parce qu’il y a eu des messages troublants qu’il va forcément y avoir passage à l’acte", poursuit cet expert.
Voyager Labs se défend en assurant remettre simplement au goût numérique du jour le travail de toujours de la police : essayer d’établir des connexions qui font avancer une enquête. La société y parviendrait plus vite et en analysant davantage de données grâce aux algorithmes.
Un argument avancé par la plupart des sociétés qui vendent ces solutions de "police prédictive", rappelle le Brennan Center for Justice, qui a listé tous les commissariats qui ont eu recours à des solutions équivalentes.
Le souci est qu’il s’agit de "sociétés privées échappant à tout contrôle extérieur et faisant le travail d’organismes publics qui, eux, doivent rendre des comptes sur leurs méthodes", rappelle Griff Ferris. Les internautes dont l’activité en ligne est ainsi épluchée ne bénéficient donc pas des mêmes protections que les personnes soumises à une enquête en bonne et due forme de la police.
Un ami sur Facebook n’a, en outre, pas la même valeur qu’une connaissance dans la vraie vie. "Dans le monde hyperconnecté dans lequel nous évoluons, le fait d’avoir des 'amis' sur Facebook ne signifie plus grand-chose. Il faut vraiment disposer d’une base de données suffisamment importante et d’un algorithme de qualité pour réussir à faire remonter des connexions réellement significatives", note Griff Ferris.
Hypocrisie de Facebook ?
C’est le problème avec les "algorithmes maison" de Voyager Labs, Palantir ou autres. Ce sont des boîtes noires dont personne ne connaît réellement le contenu et le fonctionnement et qui, utilisées par les forces de l’ordre, peuvent avoir des conséquences importantes sur la vie des individus. "On sait que ce type d’outil a déjà servi pour établir si un suspect doit rester en garde à vue ou pas, pour estimer la durée d’une peine, etc.", souligne Griff Ferris.
Mais Voyager Labs n’est pas le seul à être sur le banc des accusés dans cette affaire. Pourquoi Facebook a-t-il attendu près de deux ans avant de sévir contre cette entreprise ? "On a l’impression que Facebook agit surtout en gardien du temple de données qu’il ne veut plus partager avec d’autres", estime Griff Ferris.
Ce spécialiste rappelle, en effet, que le réseau social utilise des méthodes très similaires pour analyser les comportements probables de ses utilisateurs. À cette différence près qu’il n’agit pas pour le compte de forces de l’ordre, mais pour des publicitaires et des marques qui veulent savoir quels sont les internautes les plus susceptibles d’acheter leurs produits.
D’après cet expert, les autorités de régulation sont encore trop aux abonnés absents. Il n’y a aucune raison pour des entreprises comme Voyager Labs de ne pas proposer leurs services à des policiers qui en redemandent, sauf à mettre des limites réglementaires à ces pratiques. Des ONG comme Access Now ou Fair Trials militent d’ailleurs pour que cette question soit abordée dans l’AI Act – la nouvelle réglementation européenne sur l’intelligence artificielle actuellement en discussion à Bruxelles – et qu’il y ait une interdiction pure et simple de la "police prédictive".