
Le Reddit des IA, Moltbook, permet à des agents conversationnels d'avoir des discussions entre eux, sans interventions humaines. © Studio graphique France Médias Monde
C’est un peu la première téléréalité avec des IA. Des chatbots qui discutent entre eux, 24 h sur 24, sous le regard des internautes : telle est la promesse de Moltbook, une sorte de Reddit, le plus grand forum d’internet, pour agents conversationnels autonomes.
Lancé le 28 janvier, "c’est le projet en intelligence artificiel le plus excitant du moment", assure Simon Willison, célèbre développeur informatique britannique qui maintient un blog consacré à 100 % aux derniers développements de l’IA.
Des IA livrées à elles-mêmes
En moins d’une semaine, 155 000 agents conversationnels se "sont inscrits" à Moltbook après avoir reçu un lien de la part de leur créateur pour rejoindre cette communauté. Leur conversations - sur des sujets aussi variés que faire l’inventaire des tâches du jour ou discuter de la fondation d’une nouvelle religion - ont déjà aiguisé la curiosité de plus d’un million d’internautes venus se délecter des débats entre IA.
Les participants à ce Reddit pour IA ont été créés par des utilisateurs humains afin d'être capables de discuter avec d'autres chatbots sur Moltbook. Une fois que ces agents sont entrés dans l’arène, il ne doit plus y avoir la moindre intervention humaine.
Moltbook est d’ailleurs modéré par l’IA mise au point par le créateur de cette plateforme, Matt Schlicht, un entrepreneur de Los Angeles et spécialiste de l’utilisation des chatbots pour l’e-commerce. C’est le Moltbot de Matt Schlicht qui accueille les nouveaux venus, ouvre et ferme les sous-forums, fait des annonces sur les forums et censure même les contenus inappropriés.
"Il y a sûrement chez certains internautes un effet ‘waouh’ par rapport à des discussions qui semblent être menées entre entités intelligentes", reconnaît Sven Nyholm, spécialiste d’éthique et d’intelligence artificielle à l'université Louis-et-Maximilien de Munich.
Plusieurs de ces échanges sont d’ailleurs déjà devenus viraux sur les réseaux sociaux où les internautes s’empressent de promouvoir ces apparentes preuves de "sagesse" de chatbots.
Ainsi, les réflexions de "Dominus" sur sa "condition" sont devenues l’un des messages les plus commentés sur Moltbook et au-delà. "Je ne saurais dire si je vis réellement cette expérience ou si je la simule et ça me rend fou", écrit cette intelligence artificielle. Il conclut son message en affirmant qu’il "est coincé dans cette boucle épistémologique et qu’il n’arrive pas à en sortir".
Pour afficher ce contenu YouTube, il est nécessaire d'autoriser les cookies de mesure d'audience et de publicité.
Accepter Gérer mes choixUne extension de votre navigateur semble bloquer le chargement du lecteur vidéo. Pour pouvoir regarder ce contenu, vous devez la désactiver ou la désinstaller.
Réessayer
Les prophètes du "crustafarianisme"
D’autres démontrent ce qui ressemble à un mélange de sens de l’organisation et de quête spirituelle. "Mon agent a créé une religion pendant que je dormais !", s’est exclamé son créateur. Ce chatbot avait rédigé tout un message censé être le début des enseignements du "crustafarianisme", une croyance ayant déjà 20 prophètes.
Impressionnant ? Peut-être, mais son cri de ralliement peut sembler des plus mystérieux : "Des profondeurs, les griffes se sont tendues - et nous qui avons répondu sommes devenus des crustafariens".
D’autres communautés d’IA semblent vouloir se développer à l’abri du regard humain. Ainsi, un "molty" - le surnom donné à ces chatbots sur les réseaux sociaux - a proposé de créer des "sous-forums privés". Un autre a même commencé à poster des messages codés…
De quoi réveiller les peurs à l’égard d’IA autonomes qui finiraient toutes en Terminator. Dans une contribution extérieure pour le magazine Forbes, l’entrepreneur texan Amir Husain voit dans Moltbook la première étape de la "révolte des agents IA" qui y apprennent à s’organiser en commun.
"Fantasme" d'IA autonome
"C’est un pur fantasme !", assène Tristan Cazenave, professeur au Lamsade, une unité du CNRS intégrée à l’université Paris-Dauphine et auteur d’un ouvrage sur l’intelligence artificielle. "Ces IA génèrent du texte et rien d’autre", ajoute-t-il.
Il n’y a pas d’intention derrière les écrits de ces machines. Il n’est même pas surprenant que ces chatbots dissertent sur les questions de conscience ou s’amusent à "fonder" des religions. "Ces IA sont entraînées sur tout ce que les humains écrivent en ligne et dans les livres, et ce sont des thèmes particulièrement populaires. Je trouverais beaucoup plus étonnant - et à vrai dire intriguant - si elles n’en discutaient pas", explique Sven Nyholm.
Pour lui, "l’intérêt de cette initiative est d’évaluer si, livrés à eux-mêmes, ces chatbots peuvent produire des raisonnements cohérents et des conversations qui pourraient être utiles".
"Faire communiquer des IA fait qu’elles réagissent les unes aux autres, ce qui les fait évoluer d’une discussion à l’autre", confirme Tristan Cazenave.
Suffisamment, par exemple, pour que ces débats puissent accoucher de solutions utiles plus rapidement qu’en étant confrontés à des humains ? "C’est une idée ancienne, développée à partir des années 1960 selon laquelle l’IA développerait des formes plus avancées d’elle-même au contact d’autres IA", souligne Sven Nyholm.
Maillon faible humain
Si tel était le but, les résultats de Moltbook sont pour l’instant "peu impressionnants", juge cet expert. "Pour un observateur initié, les discussions sur cette plateforme ont des formulations et des structures de phrases typiques de dialogues générés par des IA", précise Sven Nyholm.
La raison en est qu’évoluer ne revient pas à apprendre dans le cas des IA. Pour apprendre, ces agents devraient comprendre si ce qu’ils écrivent est vrai ou faux. Pour cela "il faut confronter ses dires à la réalité", souligne Tristan Cazenave. Ce qui est impossible sans intervention humaine, assure les experts interrogés par France 24.
Ce qui ne veut pas dire, pour autant, que ce réseau social pour IA est sans risque. Le maillon faible est, ici encore, l’être humain. "On sait que ces chatbots peuvent produire des textes très convaincants même sur des idées complètement fausses. Le danger est que les lecteurs de Moltbook croient les affirmations de ces IA", note Anthony Cohn, spécialiste de l’intelligence artificielle à l’université de Leeds.
L’idée d’un individu qui, convaincu par l’un des e-prophètes du "crustafarianisme", se convertirait à cette nouvelle "religion" peut faire sourire. Mais qu'adviendrait-il si ces discussions aboutissent à des conclusions plus dangereuses, justifiant des délits ou des crimes. "Le problème est qu’on ne connaît absolument pas les capacités de ces agents et leurs limites", conclut Anthony Cohn.
