
Les dérapages racistes sur Twitter de Tay, le "chatbot" de Microsoft, ont poussé le géant américain à interrompre l'expérience. Une débâcle qui en dit long sur Internet et la manière de programmer un tel robot conversationnel.
Le rétropédalage a été rapide et les médias du monde entier ont relayé cette débâcle de l’Intelligence artificielle. Microsoft a mis un terme "provisoire", jeudi 24 mars, à l’existence de Tay, son agent conversationnel - ou "chatbot" - censé discuter de la pluie et du beau temps avec les utilisateurs de Twitter. Sauf que ces derniers ont réussi à le rendre raciste et nazi quelques heures seulement après sa "création".
Tay a, notamment, été pris en flagrant délit de négationnisme, et n’a pas hésité à mettre les attentats du 11 septembre 2001 sur le dos d’une conspiration juive. La plupart des énormités proférées par cet agent conversationnel sont en fait de simples reprises de phrases écrites par les internautes. En clair, l’utilisateur demande à Tay de répéter et le chatbot s’exécute. "Les agents conversationnels sont souvent conçus à la base pour pouvoir répéter car c’est un élément important du processus d’apprentissage", explique Jean-Gabriel Ganascia, spécialiste de l'intelligence artificielle au laboratoire d’informatique de l’université de Paris VI.
Les conversations précèdent l’essence
Microsoft semble donc avoir été pris à un piège de débutant. Les parents de Tay "ont probablement pêché par excès d’optimisme", soutient le scientifique français. Ils ont agi comme si les internautes n'étaient pas prompts à sauter sur la première occasion de tourner en ridicule un géant du Web. À la décharge de Microsoft, Tay "avait statistiquement peu de chance de tomber sur ce genre de déviance".
Mais une fois cette IA prise dans le piège des racistes ou de ceux qui voulaient la transformer en nazillon virtuel, elle n’a eu que peu de chance d’échapper à son destin. La faute à la manière dont ces agents conversationnels sont conçus. "La personnalité des ces 'chatbots' est façonnée par leurs interactions, c’est sartrien !", assure Jean-Gabriel Ganascia. Pour rappel, l’intellectuel français Jean-Paul Sartre assurait que "l’existence précède l’essence", une manière de dire que ce sont nos choix et nos interactions qui nous définissent.
Le champ lexical des chatbots du type de Tay s’enrichit au fil des discussions. "C’est comparable avec le processus d’acquisition du langage d’un enfant", explique le scientifique français qui a déjà participé à la création de tels agents conversationnels. Si tous ces professeurs sont ou se font passer pour des racistes, il le deviendra à son tour.
Libre de devenir raciste ?
Pour éviter une telle dérive, Microsoft aurait dû "nourrir" Tay d’une liste de mots et de sujets interdits, avant de le lâcher dans la jungle de Twitter. Mettre en place une telle base de données pose un autre type de problème, d’après Jean-Gabriel Ganascia. "Cela signifie que le créateur de l’agent conversationnel s’arroge le droit a priori de décider de ce qui est moralement acceptable", souligne cet expert.
Microsoft avait donc un choix cornélien à faire : se poser en censeur moral ou laisser à Tay la liberté de devenir raciste. Mais il y a aussi une troisième voie que le géant américain semble avoir choisie : laisser Tay faire des erreurs de jeunesse, puis lui apprendre les limites… ne serait-ce qu’en lui "apprenant" qu’il y a des propos illégaux. Le chatbot devrait en effet revenir plus tard "après quelques ajustements".