
Les révélations s’enchaînent sur la startup américaine Clearview AI, qui a développé l’une des applications de reconnaissance faciale les plus controversées du moment. Celle-ci permet de comparer n’importe quelle photo à une base de données composée de milliards de clichés récupérés sur Internet.
D’abord, promis juré, c’était uniquement pour les forces de l’ordre. Ensuite, des centaines d’entreprises ont été prises la main dans le sac par Buzzfeed. Enfin, le New York Times a révélé, jeudi 5 mars, qu’un club de “happy few” - des riches investisseurs, des amis - a également eu accès à l’application de reconnaissance faciale d’une des start-up les plus controversées du moment : Clearview AI.
En quelques secondes et une photo volée, l'application a permis à un riche milliardaire de trouver l’identité d’un inconnu qui dînait avec sa fille. Ou encore, à la police d’identifier un prédateur sexuel, absent des bases de données officielles mais dont le reflet du visage apparaissait dans un miroir sur une photo prise par quelqu’un dans une salle de gym. Et ce ne sont là que deux exemples des applications de ce service controversé.
Cauchemar pour la vie privée, aubaine pour la police
Clearview AI, c’est l’histoire d’une start-up new-yorkaise qui a tout fait, pendant des années, pour rester aussi discrète que possible, consciente que sa technologie de reconnaissance faciale poussait très loin les limites du moralement acceptable.
Une enquête publiée par le New York Times fin janvier a mis un terme à cet anonymat. Des révélations qui ont valu à la start-up une volée de critiques des médias et des principaux géants d’Internet, comme Google, Twitter ou encore Facebook.
The software engineer me: Wow this is amazing tech!
The American citizen me: JFC this is scary tech. https://t.co/8dLjAXzJHE
Les raisons de la colère ? Environ trois milliards de photos en accès libre que Clearview AI a glanées depuis sa création en 2016 sur la plupart des réseaux sociaux et des millions de sites Internet pour se constituer une base de données sans équivalent. Un algorithme maison s’occupe, ensuite, de comparer rapidement et efficacement un cliché pris à l'aide d'un smartphone avec le gigantesque trésor de guerre de Clearview AI.
L'outil a séduit les forces de l’ordre américaines. À commencer par la police de l’Indiana qui est devenue le premier client de la start-up en février 2019. Pour les agents, il n’y avait pas photo : jusqu’alors, ils n’avaient accès qu’à des logiciels de reconnaissance faciale beaucoup plus limités, qui permettaient de faire des recoupements avec des banques d’images comprenant “seulement” des dizaines de millions de clichés d’individus ayant déjà eu affaire avec la police. De plus, le visage sur la photo à comparer devait être parfaitement net alors que le logiciel de Clearview retrouve une personne même si une partie du visage est cachée. Une prouesse pour un logiciel de reconnaissance faciale.
Les résultats n’indiquent pas seulement le nom, mais fournissent également toutes les informations associées à la photo sur Internet, comme l’occupation professionnelle si le cliché est associé à un profil LinkedIn, par exemple.
Un cauchemar pour le respect de la vie privée, mais une arme terriblement efficace qui a été utilisée par environ 600 services de police locale aux États-Unis, a appris le New York Times. L’appli a permis de retrouver des fraudeurs, des voleurs à l’étalage, ou encore des pédophiles. Elle a même été utilisée pour mettre un nom sur un cadavre non identifié.
Pour Hoan Ton-That, le patron de Clearview AI, ces succès de la police justifient son innovation controversée. Après la publication de la première enquête du New York Times, il a fait la tournée des médias américains pour répéter que son appli n’était destinée qu’aux forces de l’ordre. Et seulement aux États-Unis et au Canada. La start-up a par ailleurs mis en ligne un “code de conduite” expliquant que le but de l’application était uniquement d’aider “les forces de l’ordre et certains professionnels de la sécurité” à “identifier des victimes et les criminels”.
De l’Arabie saoudite à Ashton Kutcher
Une affirmation mise à mal par les nouvelles révélations publiées par Buzzfeed fin février et le New York Times par la suite. Walmart, Best Buy, Bank of America, la NBA, ou encore des chaînes de casino de Las Vegas apparaissent dans le fichier d'utilisateurs de Clairview AI, consultées par Buzzfeed. En tout, près de 200 entreprises ont fait des centaines de milliers de recherches en utilisant ce logiciel de reconnaissance faciale, au titre du programme d’essai gratuit de la start-up. Rien n’indique, en revanche, qu’elles sont devenues des clients payants par la suite.
Pour attirer des investisseurs, la start-up a aussi délaissé son "code de conduite" en permettant à des riches hommes d’affaires de s’amuser avec son logiciel, a appris le New York Times. “J’en ai fait un vrai hobby. Je demande la permission à des gens que je rencontre. C’est comme faire un tour de magie !”, raconte au quotidien américain Nicholas Cassimatis, un expert en intelligence artificielle. L’acteur et investisseur Ashton Kutcher semble également avoir eu l’occasion de s’en servir. Durant une interview en septembre 2019, il a évoqué cette “application que j’ai sur mon smartphone et qui permet d’identifier n’importe qui. C’est terrifiant”.
Buzzfeed ajoute que Clearview AI commence à se sentir trop à l’étroit à l’intérieur des frontières nord-américaines. Le logiciel a été promu auprès des autorités de plus d’une vingtaine de pays. La start-up américaine a approché aussi bien des démocraties, comme l’Australie ou la France, que des États plus autoritaires, tels que l’Arabie saoudite ou les Émirats arabes unis. Là encore, les documents consultés par Buzzfeed n’indiquent pas si certains de ces pays sont devenus des clients payants.
De quoi rendre Google, Facebook et Twitter encore plus nerveux à l’idée que des photos mises en ligne sur leur service puissent servir à des régimes autoritaires pour faire la chasse aux dissidents. Les grandes plateformes ont toutes demandé à Clearview AI d’arrêter de piller leurs images et d’effacer celles déjà récupérées. Hoan Ton-Than s’y est opposé, arguant que l’accès à des données publiques relève de la liberté d’expression et d’information.
Clearview AI finira peut-être par céder, mettant un terme à son service. Mais “il n’y a pas monopole sur les algorithmes, estime Al Gidari, professeur en libertés individuelles à l’université de Stanford, interrogé par le New York Times. Nous avons beau trouver ça très dérangeant, d’autres le feront [si Clairview arrête, NDLR]. Sans règle très stricte sur la reconnaissance faciale, on est tous foutus.”
En attendant, Clearview AI semble avoir des idées pour rendre son logiciel encore plus efficace… et invasif pour la vie privée. Dans son programme de reconnaissance faciale, consulté par le New York Times, il existe déjà un code qui permettrait d’adapter le logiciel à des lunettes de réalité augmentée. De quoi identifier n’importe quelle personne croisée dans la rue ? Hoan Ton-That a reconnu avoir réfléchi à une telle option, avant de laisser tomber. Promis, juré.