Facebook a reconnu une nouvelle fois des "erreurs" dans ses méthodes de modération.
Facebook est parfois un poil tatillon sur l'application de ses règles de modération – concernant la nudité, par exemple. Et puis parfois, le réseau social ne l'est clairement pas assez. Un reportage de Channel 4, qui sera diffusé le 17 juillet au soir mais que plusieurs médias comme le Guardian ont déjà pu visionner, montre comment la plateforme a laissé des activistes d'extrême-droite diffuser des discours de haine et des images violentes, alors même que tout ceci est contraire à son règlement.
Dans le documentaire, un reporter part travailler sous couverture pour Cpl, une entreprise irlandaise à qui Facebook délègue une partie de la modération de ses contenus. Là-bas, le journaliste s'aperçoit que les pages de plusieurs activistes d'extrême droite bénéficient d'une sorte de tolérance de la part de Facebook. On l'appelle en anglais le "shielded review" ("examen bouclier" en français).
Il s'agit d'une fonctionnalité, normalement plutôt utilisée pour des organismes bien spécifiques comme des instances gouvernementales ou des médias, qui empêche des modérateurs employés par une entreprise tierce de supprimer une page simplement parce qu'elle a violé plusieurs fois les standards de sa communauté. Si ce cas se présente, seul Facebook peut alors effectuer une telle action.
Des militants et partis d'extrême-droite sous haute protection
On trouvait, parmi les pages protégés par le "shielded review", celles de Tommy Robinson (de son vrai nom Stephen Yaxley-Lennon), connu notamment pour avoir fondé un pouvoir supposé éviter "l'islamisation" de la Grande-Bretagne, ou celle ou parti nationaliste Britain First. Cette dernière a été supprimée en mars 2018, quelques mois après que le parti a été disloqué, et que ses membres ont été emprisonnés pour une série de crimes perpétrés à l'encontre de musulmans. Facebook avait à l'époque expliqué que le mouvement et ses leaders avaient enfreint ses règles en publiant plusieurs fois des commentaires haineux sur des minorités. Mais selon le journaliste de Channel 4, cette suppression aurait du se faire bien avant cette date.
Certains comportements d'internautes ont été tolérés parce que leurs pages avaient beaucoup d'abonnés
Le reporter infiltré raconte par ailleurs que Facebook aurait demandé à ses modérateurs tiers de respecter une règle pour le moins surprenante. Le réseau social les aurait enjoint d'ignorer le signalement d'utilisateurs semblant avoir moins de treize ans, même lorsque ce signalement faisait suite à la publication de contenus problématiques comme des images d'auto-mutilation. Or aux États-Unis comme en Europe, la loi indique que les enfants de moins de treize ans n'ont normalement pas le droit d'avoir un compte Facebook. Les modérateurs devaient alors procéder comme s'il s'agissait d'adultes, et "prétendre qu'[ils] étaient aveugles".
Facebook reconnaît des "erreurs"
Le journaliste estime que si Facebook n'a pas agi plus tôt concernant les militants d'extrême-droite, c'est parce que leurs pages avaient beaucoup d'abonnés et généraient "beaucoup de revenus" pour le réseau social. Ce dernier, qui a reconnu des "erreurs", nie fermement cet aspect-là. Richard Allan, en charge des politiques publiques dans l'entreprise, a expliqué qu'il s'agissait avant tout d'une question de "discours politique". "Les gens débattent sur des questions très sensibles sur Facebook, y compris des questions comme l'immigration. Et ce débat politique peut être entièrement légitime", a-t-il expliqué tout en rappelant que les contenus contraires aux règles étaient eux supprimés, prenant Britain First en exemple.
Concernant le sujet des mineurs de moins de treize ans, Richard Allan a indiqué que les modérateurs étaient normalement formés pour essayer de déterminer l'âge de l'enfant. "S'ils pensent que la personne a moins de treize ans, le compte sera suspendu. Cela signifie qu'ils ne peuvent plus utiliser Facebook, à moins de prouver leur âge."
Facebook a assuré prendre des mesures immédiates. Son responsable des politiques publiques dit avoir lancé une enquête interne pour comprendre pourquoi les modérateurs appliquaient de telles règles qui lui semblent contraires aux consignes de Facebook, et a promis qu'elle allait dispenser une formation supplémentaire à ses modérateurs afin qu'ils puissent rectifier le tir.
Quelque chose à ajouter ? Dites-le en commentaire.