logo

Le taux d'erreur du logiciel de reconnaissance faciale de la police galloise est aberrant

Un an après sa mise en place, les statistiques d'erreurs du programme de reconnaissance faciale de la police galloise ont été dévoilées. Et le moins que l'on puisse dire, c'est que ces chiffres sont loin d'être négligeables.

Pour retrouver un suspect, il existe plusieurs solutions : se fier à un portrait-robot – quelle que soit sa qualité –, ou utiliser la reconnaissance faciale pour débusquer, comme l'a fait la Chine, un criminel en plein milieu d'un concert. Mais parfois, cette dernière technique n'offre pas vraiment le résultat escompté. En Grande-Bretagne par exemple, le système n'est pas encore tout à fait au point. 

Mis en place à Cardiff l'an dernier lors de la finale de la Ligue des Champions, le programme de reconnaissance faciale de la police galloise n'a pas généré des résultats probants, comme le rapporte The Guardian dans un article. Après avoir scanné les visages de 170 000 personnes lors de l'événement, 2 470 ont été recensées comme criminelles car présentant des similitudes avec les photos présentes dans les bases de données. Sur ces 2 470 "suspects", 2 297 fausses alertes. Une marge d'erreur d'environ 92 %, donc. 

Pour se défendre, la police galloise a précisé dans un communiqué que "aucun système de reconnaissance faciale n'était fiable à 100 %", et que depuis sa mise en place en juin 2017, il avait tout de même permis 450 arrestations. Les autorités expliquent également n'avoir "arrêté aucun individu après une fausse alerte", comme celles comptabilisées lors de la finale de la Ligue des Champions par exemple. 

La faute aux "images de mauvaise qualité"

Pourquoi un taux d'erreur si important ? La police blâme les "images de mauvaise qualité" récoltées par le programme, et explique également qu'il s'agissait d'un premier essai d'une telle ampleur, d'où les défaillances. Cependant, ce mauvais démarrage n'a pas découragé les autorités galloises, qui ont continué et continueront à se servir du système notamment pour des événements importants, "potentiellement cibles de terroristes". Et si jamais d'autres erreurs continuent de se présenter, elles assurent qu'une "discussion entre le policier intervenant et l’individu" fiché serait suffisante pour prendre conscience de l'erreur du système. 

Une décision qui n'a pas manqué de faire réagir l'association à but non-lucratif Big Brother Watch, qui lutte pour les libertés et la protection de la vie privée. Via Twitter, l'organisation a annoncé le 5 mai qu'elle allait présenter sa campagne "#FaceOff" au Parlement britannique ce mois-ci : "Big Brother Watch, Football Supporters Federation et beaucoup d'autre alliés demandent à la police de mettre immédiatement fin à leur utilisation anarchique de la reconnaissance faciale."

We’ve had enough. We’re taking our #FaceOff campaign to parliament this month.

Big Brother Watch, Football Supporters Federation @FSF_FairCop & many other allies are calling for police to immediately end their lawless use of automated facial recognitionhttps://t.co/lRmmy4jVPV

— Big Brother Watch (@bbw1984) 5 mai 2018

Quelque chose à ajouter ? Dites-le en commentaire.