Une ancienne modératrice de Facebook explique avoir vu défiler des images particulièrement choquantes. Elle avait dix secondes pour décider de leur sort.
Pendant huit mois, en 2016, Sarah Katz a travaillé comme modératrice pour Facebook. Dans une interview au site Business Insider, elle raconte cette période difficile, marquée par la pression du nombre de posts à analyser, et les images choquantes et violentes qu'elle voyait quotidiennement.
Une équipe de plusieurs milliers de modérateurs
Sarah Katz ne travaillait pas directement pour Facebook. Elle était employée par une entreprise tierce, Vertisystem. Son rôle était d'analyser des contenus signalés par des utilisateurs, et de déterminer s'ils contrevenaient au règlement du réseau social. Chaque jour, elle raconte qu'elle devait passer en revue jusqu'à 8 000 posts. Parmi ces derniers – qui apparaissaient sur son écran au rythme d'un toutes les dix secondes –, elle voyait "beaucoup de pornographie, de la zoophilie, et de la violence". "Il y avait beaucoup de contenus que vous n'auriez pas pensé voir partagés sur Facebook", raconte celle qui se souvient encore avec effroi d'images d'abus sexuels sur des mineurs. Parfois, les clichés qu'elle supprimait étaient repostés, à plusieurs reprises. Elle raconte qu'à force, elle avait été comme désensibilisée à ce type de photos ou vidéos.
Pour devenir modératrice, Sarah Katz avait du au préalable signer un document, dans lequel elle avait été alertée qu'elle verrait des images potentiellement dérangeantes. Il était également noté que celles et ceux qui ne le supportaient pas et souhaitaient arrêter devaient le "notifier rapidement" à l'entreprise.
Suite à une série de meurtres diffusés en direct sur sa plateforme, Facebook avait indiqué en mai 2017 employer 4 500 modérateurs. Elle avait promis qu'elle allait ajouter 3 000 personnes à cette équipe. Une promesse, qu'elle assure avoir depuis honorée.
Des règles floues
Le travail des modérateurs, complété par l'utilisation d'algorithmes supposés identifier des contenus problématiques, est de plus en plus complexe, car le nombre de messages ou d'images postés sur la plateforme ne cesse de grossir. Dans un rapport publié en mai, Facebook expliquait avoir en l'espace de trois mois "agi" sur 3,4 millions de posts, soit 1,2 million de plus qu'entre octobre et fin décembre 2017.
Par ailleurs, les règles encadrant la modération des contenus peuvent parfois être floues, comme l'avaient montré des documents internes révélés en 2017 par le Guardian. Une vidéo de mort violente, par exemple, ne doit pas toujours être supprimée. Si elle peut aider à nourrir un débat sur les maladies mentales, elle est acceptée sur le réseau social. Quant aux images montrant des faits de maltraitance à caractère non sexuel sur un enfant, elles peuvent également être tolérées, si elles ne glorifient pas de telles pratiques.
Sarah Katz, dont Facebook a refusé de commenter l'expérience, a elle choisi de changer d'emploi. Elle travaille désormais en tant qu'analyste dans le secteur de la sécurité informatique. Elle assure paradoxalement ne pas garder un trop mauvais souvenir de son passé de modératrice. L'idée de protéger les utilisateurs, explique-t-elle, suffisait à la motiver.
Quelque chose à ajouter ? Dites-le en commentaire.