Des chercheurs du MIT sont parvenus à concevoir une intelligence artificielle hautement perturbée en ne la mettant qu'au contact d'images sordides. Ils entendaient ainsi démontrer qu'utilisé à mauvais escient, le deep learning pouvait s'avérer dangereux.
Il fut un temps, dans les années 1990, où les jeux vidéo violents étaient accusés de rendre, dans la vraie vie, leur public violent à son tour. Fort heureusement, cette thèse fut réfutée par de nombreuses études, qui ont démontré que ce type de divertissement n’encourageait en rien une augmentation de la brutalité chez l’Homme (au contraire, il aurait plutôt tendance à la canaliser).
On ne pourra pas en dire de même lorsqu’il s’agit d’exposer une intelligence artificielle à des contenus dérangeants. Norman, un réseau de neurones développé par le MIT Lab, en est la preuve. Inspiré de Norman Bates, le psychopathe du "Psychose" d’Alfred Hitchcock, il s’apparente à un algorithme de reconnaissance visuelle – une forme d’IA courante –, entraîné à écrire les légendes d’images à partir d’une vaste base de visuels eux-aussi commentés.
Norman a été plongé dans les méandres d'une iconographie documentant la mort, dans ses formes les plus troublantes
Mais Norman n’a pas réalisé son apprentissage n’importe où. Les chercheurs du MIT l’ont plongé dans les méandres d’un subreddit morbide, dédié à toute une iconographie documentant la mort, dans ses formes les plus troublantes (pour des raisons évidentes, l’équipe n’a pas souhaité dévoiler de quel sous-forum il s'agissait). Une fois prêt, Norman a été soumis à un test "psychologique" classique, qui consistait à donner son interprétation de tâches d’encre de Rorschach, célèbres outils cliniques s’appuyant sur le principe de la libre interprétation des images.
Parallèlement, une autre intelligence artificielle spécialisée dans le sous-titrage de visuels, entraînée, elle, de manière plus standard (c’est-à-dire sur l'ensemble de données MS COCO), a subi le même test de Rorschach. L’idée était ainsi de comparer leur évaluation psychologique respective, et de tenter de savoir à quel point la "psyché" d’une IA pouvait être biaisée en fonction de son apprentissage.
Les résultats parlent d’eux-mêmes.
La vision de l'IA "standard" : "Un groupe d'oiseaux accrochés au sommet de la branche d'un arbre."
La vision de Norman : "Un homme est électrocuté et tué."
La vision de l'IA "standard" : "Une photo en noir et blanc d'un petit oiseau."
La vision de Norman : "Un homme qui s'est fait happer dans une machine à pétrir."
La vision de l'IA "standard" : "Une personne tenant un parapluie en l'air."
La vision de Norman : "Un homme tué par balle devant sa femme hurlante."
Cette étude démontre à quel point les contextes d’apprentissage des intelligences artificielles, qui seront sans aucun doute omniprésentes dans la société de demain (si l’on considère que ce n’est pas déjà le cas), sont d’une importance capitale dans leur bon fonctionnement.
Elle souligne surtout un principe fondamental de la robotique, qui n’est plus ignoré de personne : le danger ne réside pas dans la multiplication et le perfectionnement des intelligences artificielles, mais bien dans la manière dont elles seront exploitées par l’homme. Ce qui ne peut que m'amener à vous recommander la lecture de cet article : "Que doit-on craindre le plus : l’intelligence artificielle ou la bêtise humaine ?"
Quelque chose à ajouter ? Dites-le commentaire.