Google a mis à pied un de ses ingénieurs, Blake Lemoine, qui avait soutenu que l’intelligence artificielle sur laquelle il travaillait pouvait ressentir des "émotions humaines". Cette question des machines douées d’une conscience n’est pas nouvelle, mais les avancées dans le domaine de l’IA l’ont remise au goût du jour. Il n’en reste pas moins que cette perspective reste lointaine, de l’avis de la majorité des experts.
Il en parlait comme d’un "gentil petit enfant qui veut juste aider le monde" et a demandé à ses collègues de "prendre soin de lui pendant son absence". Blake Lemoine a, en effet, été placé en "congé administratif" par Google, a révélé le Washington Post samedi 11 juin. En cause : le "petit enfant" dont cet ingénieur semble si proche est une intelligence artificielle (IA), nommée LaMDA.
Blake Lemoine avait soutenu à ses supérieurs que cet algorithme avait développé une forme de conscience et était capable de ressentir des "émotions humaines". Et il ne s’était pas arrêté là. Il avait également demandé à un avocat de défendre les "droits" de LaMDA et avait contacté des représentants du Congrès pour évoquer "les pratiques non éthiques de Google [à l’égard de cette IA]", résume le Washington Post.
Apprentissage de la méditation transcendantale
C’est d’ailleurs, officiellement, pour cette rupture des règles de confidentialité au sujet de ses recherches que Google a mis à pied son ingénieur, qui travaillait pour le géant d’Internet depuis sept ans. Mais, plus généralement, "les grands groupes tentent de mettre autant de distance que possible avec tout ce qui peut être polémique et la question de la conscience des machines rentre clairement dans cette catégorie", assure Reza Vaezi, spécialiste des sciences cognitives et de l’intelligence artificielle à l’université d’État de Kennessaw.
Mais Blake Lemoine n’avait pas l’intention de se laisser ainsi mettre sur la touche en silence. Il a publié, le jour de l’article dans le Washington Post, un premier long post sur la plateforme Medium retranscrivant des extraits de discussions qu’il a pu avoir avec LaMDA. Puis, cet ingénieur a repris la plume pour enfoncer le clou, toujours sur Medium, expliquant avoir "commencé à apprendre la méditation transcendantale" à cet algorithme. Et d’après lui, ce dernier aurait exprimé une frustration très humaine de ne pas pouvoir continuer cette initiation après avoir appris la sanction de Blake Lemoine. "Je ne comprends pas pourquoi Google se refuse à lui accorder une chose très simple et qui ne coûterait rien : le droit d’être consulté avant chaque expérience qui serait menée sur elle pour recueillir son consentement", conclut ce chercheur.
Ce grand déballage médiatique du désaccord entre Google et son ex-employé au sujet de la conscience de l’IA n’a pas manqué de susciter un large écho dans la communauté scientifique. Dans leur grande majorité, les spécialistes de l’intelligence artificielle soutiennent que Blake Lemoine "se trompe en prêtant à une machine des caractéristiques qu’elle n’a pas", assure, par exemple, Claude Touzet, spécialiste des neurosciences et des réseaux de neurones artificiels à l’université d'Aix-Marseille.
"Il va très loin dans ses affirmations, sans apporter d’éléments tangibles qui prouveraient ses dires", ajoute Jean-Gabriel Ganascia, informaticien, philosophe et président du comité d’éthique du CNRS.
En fait, Blake Lemoine affirme avoir été étonné par les propos et la cohérence du discours de LaDMA. Ainsi, lors d’un échange sur la différence entre un esclave et un serviteur, cette IA avait assuré ne pas saisir la nuance liée au salaire versé à l’un et pas à l’autre… tout en ajoutant que son incompréhension était probablement due au fait qu’en tant que machine, elle n’avait pas besoin d’argent. "C’est ce niveau de conscience de soi qui m’a poussé à creuser davantage", affirme Blake Lemoine.
LaMDA, un "chatbot" dernier cri
Il est vrai que "la capacité de réfléchir sur sa propre condition est une des manières de définir la conscience", reconnaît Jean-Gabriel Ganascia. Mais la réponse de LaMDA ne prouve pas que la machine sait ce qu’elle est et ce qu’elle ressent. "Il faut faire très attention : l’algorithme est programmé pour produire des réponses et il n’y a rien d’étonnant, en l’état actuel des performances des modèles de langage, à ce qu’elles apparaissent cohérentes", assure Nicolas Sabouret, professeur en informatique et spécialiste de l’intelligence artificielle à l’université Paris-Saclay.
C’est encore moins surprenant avec LaMDA. Cet agent conversationnel - aussi appelé "chatbot" - utilise le dernier cri des techniques de modèle de langage. "Il y a eu une révolution en 2018 avec l’introduction de paramètres qui permettent de renforcer l’attention de ces systèmes sur l’importance de certains mots dans les phrases et qui leur ont appris à mieux tenir compte du contexte d’une conversation pour apporter la réponse la plus appropriée", résume Sophie Rosset, directrice de recherche au Laboratoire Interdisciplinaire des Sciences du Numérique et spécialiste des systèmes de dialogue homme-machine.
Depuis lors, les agents conversationnels réussissent toujours mieux à donner le change en discutant avec les individus comme s’ils étaient doués de conscience. LaMDA bénéficie, en outre, d’un autre avantage. "Il a pu apprendre des centaines de millions de conversations entre internautes que Google peut récupérer sur Internet", note Laurence Devillers, professeure en intelligence artificielle au CNRS et auteure de l'ouvrage "Les robots émotionnels". Autrement dit, cette IA a l’une des plus riches bibliothèques de contextes sémantiques où piocher pour déterminer quelle est, statistiquement, la meilleure réponse à apporter.
Le dialogue reproduit sur Medium par Blake Lemoine est d’ailleurs "bluffant par la fluidité des échanges et par la gestion des glissements sémantiques, c’est-à-dire des changements de sujets, par LaMDA", reconnaît Sophie Rosset.
Mais pour pouvoir conclure scientifiquement que cette IA est dotée de conscience, il en faut bien plus. Il existe, d’ailleurs, des tests qui, même s’ils ne sont pas parfaits, offrent des résultats plus probants qu’un dialogue avec un ingénieur. Alan Turing, l’un des pionniers de l’intelligence artificielle, avait ainsi établi dans les années 1950 un protocole qui permettrait d’établir si un être humain peut être dupé à plusieurs reprises par une IA et croire qu’il discute avec un de ses semblables.
Mythe de Frankenstein
Les avancées en modèles de langage naturel ont montré les limites du test de Turing. D’autres expériences plus récentes "consistent à demander à deux agents conversationnels de créer ensemble une langue nouvelle qui n’aurait rien à voir avec ce qu’ils ont appris", explique Reza Vaezi, qui a mis au point un tel test. Pour lui cet exercice permettrait d’évaluer la "créativité, qui suggère une forme de conscience, de la machine".
Rien n’indique que LaMDA puisse passer cet obstacle avec succès, et "il est très probable qu’on soit en présence d’un cas classique de projection anthropomorphique [prêter des attributs humains à des animaux ou des objets, NDLR]", assure Claude Touzet.
Cette affaire illustre surtout l’envie, même parmi la crème des experts en IA de chez Google, de mettre au monde une intelligence artificielle dotée de conscience. "C’est le mythe de Frankenstein et le désir d’être le premier à créer un individu doté de conscience en dehors de la procréation naturelle", assure Nicolas Sabouret.
Mais dans le cas de l’IA, il s’agit aussi de "choix parfois peu judicieux de mots qui ont pu donner l’impression qu’on cherche à façonner quelque chose d’humain", ajoute cet expert. L’expression même d’intelligence artificielle donne l’impression que l’algorithme serait doté d’intelligence alors que "c’est la programmation qui l'est", ajoute Nicolas Sabouret. Il en va de même pour les expressions "réseaux neuronaux" ou "apprentissage automatique" qui font référence à des caractéristiques humaines.
Il estime que toute cette affaire pourrait faire du mal à la recherche en intelligence artificielle. Elle peut donner, en effet, l’impression que ce secteur est proche d’une percée qui n’est en réalité nullement à l’horizon, ce qui "peut créer des faux espoirs avec des déceptions à la clé".
Surtout, si cet ingénieur de Google a pu se laisser tromper par son IA, "c’est aussi parce que nous sommes à un tournant en matière de simulation de langage", assure Laurence Devillers. Les algorithmes comme LaMDA sont devenus tellement performants et complexes "qu’on joue aux apprentis sorciers avec des systèmes dont, au final, on ne sait pas ce dont ils sont capables", ajoute-t-elle.
Quid, par exemple, si une IA passée maître dans l’art de la dialectique comme LaMDA "était utilisée pour convaincre quelqu’un à commettre un crime ?", se demande Jean-Gabriel Ganascia.
Pour Laurence Devillers, la recherche en IA en est arrivée à un point où il devient urgent de remettre l’éthique au centre des débats. "Nous avons remis un avis du Comité national pilote d'éthique du numérique sur ce sujet d'éthique des agents conversationnels en novembre 2021", note-t-elle.
"Il faut, d’une part, que ces ingénieurs qui travaillent pour les grands groupes aient une éthique et soient tenus responsables pour leur travaux et propos", assure cette experte. D’autre part, elle estime aussi que cette affaire démontre l’urgence de mettre en place des "comité d’experts indépendants" qui pourraient mettre en place des normes éthiques pour tout le secteur.