logo

Des Kényans payés deux dollars de l’heure ont dû modérer des milliers de contenus violents pour permettre la création de la base de données de l’IA ChatGPT, a révélé mardi le magazine Time. Derrière ce nouveau scandale de modération en Afrique se trouve toujours la même société, Sama, qui se dépeint comme "socialement éthique".

"Au Kenya, les salaires sont généralement bas et les conditions de travail peuvent être mauvaises. De nombreux travailleurs n'ont pas accès à des avantages tels que l'assurance santé ou des jours de vacances payés. En outre, il y a des rapports faisant état d'exploitation dans certaines industries." Tel est le constat de ChatGPT, cette intelligence artificielle (IA) et conversationnelle très à la mode, lorsqu’on l’interroge sur le marché du travail au Kenya.

L’algorithme ne croit pas si bien écrire. Des Kényans ont été payés moins de deux dollars par heure pour s’assurer que ChatGPT ne se lance pas dans des dérapages racistes, des diatribes à la gloire de la pédocriminalité ou une défense du terrorisme, a révélé mardi 18 janvier le magazine américain Time dans une enquête sur les conditions de travail en Afrique des modérateurs opérant pour OpenAI, la société américaine qui a développé cette IA.

"C'était de la torture"

À l’heure où une partie du monde célèbre le bond technologique incarné par ChatGPT tandis que d’autres dénoncent le risque de voir cette IA remplacer des travailleurs par millions, peu s’intéressent à l’envers du décor de sa création.

Une part importante de la conception de cette IA, qui s’est nourrie de tous les textes disponibles sur le Net jusqu’en 2021, était d’éviter qu’elle ne tombe sur les recoins les plus sombres du Web. Une éducation faisant l’impasse sur certaines des mauvaises influences qui polluent l’Internet devait lui éviter le sort de Tay, l’agent conversationnel de Microsoft qui a proféré des propos racistes et sexistes peu après avoir été lancé en 2016.

Un dur labeur sous-traité fin 2021 à des modérateurs au Kenya. "C’était de la torture", se souvient l’une des petites mains kényanes qui a fait le tri entre le bon grain et la pire ivraie pour OpenAI, interrogée par Time. Car ce n’est pas tant le niveau de salaire qui importe le plus, mais plutôt la violence des contenus auxquels ces modérateurs ont été confrontés durant leur travail.

L’un des modérateurs a raconté à Time avoir été hanté par des descriptions de mort et de zoophilie. Ces traqueurs d’ignominie en ligne étaient divisés en trois équipes qui avaient chacune leur spécialité : les abus sexuels, la haine en ligne et la violence.

Ils devaient lire et évaluer chaque jour entre 150 et 250 extraits de texte sélectionnés par OpenAI contenant des descriptions souvent très explicites d’actes allant de la torture à l’inceste. Ces modérateurs pouvaient consulter des conseillers en "bien-être" pour garder leur équilibre mental. Mais les témoignages recueillis par Time suggèrent que ces "spécialistes" n’étaient pas des plus disponibles.

Si cette affaire a des airs de déjà-vu, ce n’est pas un hasard. En février 2022, c’est Facebook qui s’est retrouvé sur le banc des accusés pour avoir sous-traité la modération de ses contenus les plus violents à des employés sous-payés au Kenya.

À l’époque, c’était déjà Time qui avait révélé l’affaire. Et l’un des modérateurs – renvoyé après avoir revendiqué trop ouvertement de meilleures conditions de travail – a même déposé une plainte contre Facebook au nom des modérateurs kényans en mai 2022.

Sama, encore et toujours

Un autre fil relie ces deux affaires : Sama, la société californienne chargée à la fois par Facebook et OpenAI d’effectuer ce filtrage de contenus. En février 2022, l'entreprise avait contesté les allégations de Time concernant l’exploitation des modérateurs kényans pour le compte de Facebook. Peu après, elle avait cependant accepté d’octroyer une nette augmentation de salaire à ses employés kényans les moins bien payés.

Cette fois encore, Sama contredit une partie des affirmations du magazine américain. Les spécialistes du "bien-être" auraient parfaitement été à l’écoute des salariés, les modérateurs auraient eu seulement 70 extraits à valider par jour et Sama affirme que les salaires pouvaient être plus élevés.

Il n’empêche que la société Sama a déjà été prise deux fois la main dans le même sac africain. Cette entreprise fondée en 2008 avait même déjà été accusée en 2018 par la chaîne britannique BBC de sous-payer des Kényans habitant dans le plus grand bidonville du pays pour analyser à la chaîne des images de circulation afin de nourrir les algorithmes des voitures dites "intelligentes".

Mais à l’époque, la BBC soulignait aussi les bienfaits économiques de l’activité de Sama pour les Kényans les plus pauvres. Cette société gère une école d’apprentissage du numérique pour les habitants du bidonville qui apparaît comme une vraie success-story à un endroit où "un an plus tôt des émeutiers affrontaient les militaires", note la BBC. Plusieurs des Kényans interrogés par la chaîne britannique ont aussi affirmé que la rémunération offerte par Sama était un réel don du ciel pour eux.

C’est toute l’ironie de ces scandales de modération qui, en Afrique, semblent invariablement avoir un lien avec Sama. Avant 2018, cette société apparaissait comme un exemple des bénéfices que la Silicon Valley pouvait apporter aux pays en voie de développement.

Sama se targue même sur son site Internet d’être une société avant tout éthique, attachant la plus grande importance au bien-être de ses employés. Sa fondatrice, Leila Janah, assurait que son but était de "sortir des milliers de pauvres de la misère grâce à des emplois dans le secteur numérique" pour le compte de puissants clients de la Silicon Valley, comme Microsoft ou Google.

À ceux qui lui reprochaient d’offrir une bien piètre rémunération, elle répondait qu’un salaire trop élevé par rapport à la moyenne risquait d’avoir des conséquences inattendues, "comme la hausse des loyers".

Dans un portrait hagiographique de cette cheffe d’entreprise morte à l’âge de 37 ans en 2020 des suites d’un cancer, le New York Times soutient que Sama a permis à plus de 50 000 personnes de sortir de la pauvreté.

L’article souligne aussi que cette société est l’une des plus féminines du secteur puisqu’il y a une majorité de femmes à tous les échelons du groupe.

Sama ne veut plus faire de modération

Cette société a aussi obtenu en 2020 une certification dite "B Corp" octroyée par un réseau d’ONG aux entreprises qui respectent un certain nombre de critères de transparence, de gouvernance et d'exigences sociétales et environnementales.

Il n’empêche que ce réseau a inclus en 2022 un addendum à son évaluation de Sama pour prendre en compte le scandale Facebook, déclarant que celui-ci pouvait coûter sa certification à l'entreprise.

Ce travail de veille pour les stars de la Silicon Valley a donc fait beaucoup de mal à l’image de Sama. À tel point que l’entreprise a décidé, dix jours avant la publication de l’article de Time concernant ChatGPT, de se retirer du créneau de la modération.

Elle avait déjà rompu son contrat avec OpenAI après avoir découvert que le créateur de ChatGTP avait aussi envoyé des images très violentes aux modérateurs, en plus des textes. Officiellement, Sama affirme avoir voulu protéger la santé mentale de ses modérateurs, tandis que Time souligne que certains modérateurs soutiennent que c’était uniquement pour éviter un nouveau scandale comme celui de Facebook.

D’un côté, Sama peut apparaître comme un moindre mal : d’autres sous-traitants sans credo "éthique" auraient peut-être fait pire. Mais de l’autre, elle dissimule peut-être une volonté de faire de l’argent sur le dos des plus pauvres sous un vernis humaniste qui commence à craqueler.

ChatGPT a son idée sur la question. "Sama est connu pour son modèle d’entreprise sociale qui vise à offrir des opportunités de travail aux personnes vivant dans la pauvreté, en particulier les femmes, dans les pays en développement." Mais faut-il vraiment croire tout ce que dit une intelligence artificielle ?