ChatGPT a-t-il atteint l’âge de raison ? Son géniteur, OpenAI, soutient que son "bébé" a franchi ce cap. La société américaine a annoncé, jeudi 12 septembre, la sortie de son nouveau modèle d’intelligence artificielle - baptisé o1 - qui aurait été entraîné à effectuer des "raisonnements complexes".
Pour l’instant, ChatGPT o1 a surtout appris à "réfléchir avant de répondre", se félicite OpenAI dans son communiqué. Le but affiché serait d’en faire un grand modèle de langage ("large language model" en anglais, LLM) - ou chatbot - capable de rivaliser avec le raisonnement d’un "thésard" en mathématique, biologie ou physique.
Des champions en probabilité, pas en raisonnement
Vaste programme ! Jusqu’à présent, les grands modèles de langage - tels que ChatGPT - n’étaient pas associés à l’idée de "raisonnement", et "lorsqu’ils s’aventuraient sur ce terrain, ils étaient plutôt mauvais", affirme Mark Stevenson, spécialiste en informatique et modèle de langage à l’université de Sheffield.
Pas étonnant : ces chatbots sont "avant tout des machines qui excellent dans l’art de décider quel est le mot le plus adéquat à ajouter à la suite d’une phrase [pour qu’elle fasse sens et réponde à la question posée par l’utilisateur, NDLR]", ajoute cet expert. Ce sont des champions en probabilité, et rien dans leur programmation ne les prépare à raisonner.
ChatGPT aurait-il une sorte de petit supplément d’âme - pour rester dans l’anthropomorphisme cher à OpenAI - lui permettant de s’élever au-dessus de ses pairs ? Difficile de déterminer ce qui permettrait à o1 de mieux "raisonner", tant OpenAI se montre chiche en détails sur la cuisine interne de son algorithme. "C’est frustrant pour les chercheurs de ne pas connaître les détails des résultats scientifiques qu’OpenAI affirme avoir obtenus", déplore Nicolas Sabouret, professeur en informatique et spécialiste de l’intelligence artificielle à l’université Paris-Saclay.
Pour lui, le recours au terme "raisonner" serait de toute manière un "abus de langage". "Il faudrait probablement dire simulation de raisonnement, car affirmer qu’une machine peut raisonner, c’est comme soutenir qu’un sous-marin peut nager. C’est absurde", résume Nicolas Sabouret.
Maître ès chaînes de pensée
Dans le monde des IA, “il faut s’émanciper de la définition du raisonnement logique", estime pour sa part Nello Cristianini, professeur d’intelligence artificielle à l’université de Bath et auteur de “Machina Sapiens” (éd. Il Mulino). Pour lui, "il y a d’autres approches de ce terme : on peut par exemple considérer qu’utiliser les probabilités pour assembler différents morceaux d’informations afin de créer une nouvelle information - ce que font les IA génératives - est déjà un début de raisonnement.”
ChatGPT o1 serait ainsi devenu bien meilleur dans l’art de rassembler les pièces du puzzle présentes dans sa base de données. Il semblerait qu’OpenAI "a trouvé un nouveau moyen d’entraîner son modèle [c’est-à-dire découvrir des liens logiques dans son immense base de données, NDLR]", estime Anthony Cohn, professeur de raisonnement automatisé et d’intelligence artificielle à l’université de Leeds et à l’Institut Alan Turing.
C’est ce qui lui permettrait, in fine, de "repousser les limites de la prédiction du prochain mot et donner une meilleure impression de raisonner", poursuit Anthony Cohn.
OpenAI affirme que, dorénavant, son AI générative peut bien mieux utiliser les "chaînes de pensée pour résoudre les problèmes complexes". Ce concept de "chaînes de pensées" n’est pas neuf : "C’est la capacité de casser un énoncé en des éléments plus petits pour résoudre le problème plus facilement, une étape après l’autre”, explique Nicolas Sabouret.
C’est ce qu’OpenAI veut dire en indiquant que ChatGPT o1 va "réfléchir avant de répondre". Un exemple classique pour une IA "est de détailler étape par étape la préparation et la réalisation d’un gâteau", illustre Tom Lenaerts, professeur à l’Université libre de Bruxelles et président de l’Association du Benelux pour l'intelligence artificielle.
Ne plus prendre le chatbot par la main
Traditionnellement, l’utilisateur doit prendre le chatbot par la main pour le guider pas à pas. Avec les bonnes questions, les modèles de langage peuvent ainsi réaliser des simulacres de raisonnement par étapes.
Dans le cas de ChatGPT o1, l'IA semble avoir “appris à contrôler les chaînes de pensées et y avoir recours délibérément”, explique Nello Cristianini. Elle n’aura plus besoin qu’on lui dise de détailler les étapes pour faire un gâteau pour le faire.
Mais OpenAI ne veut pas inscrire son modèle à l'émission de téléréalité Top chef. L’objectif c’est de le lancer à l’assaut de la physique, de la chimie ou des maths, des matières dans lesquelles ce type de raisonnement pas à pas “peut permettre de résoudre des problèmes hors de portée jusqu’à présent des grands modèles de langage”, assure Nello Cristianini.
Ce n’est pas un hasard si OpenAI ne cite que des sciences dures pour tester les capacités de "raisonner" de son "thésard" virtuel. Contrairement à un étudiant en chair et en os, des domaines comme l’histoire, la philosophie ou la géopolitique semblent hors de portée de ChatGPT o1.
“C’est probablement parce qu’avec les sciences dures, il y a des réponses correctes vérifiables, ce qui est important pour tester la validité du modèle”, explique Mark Stevenson. Comment vérifier si ChatGPT o1 a répondu “correctement” à des questions comme “Quelle est la meilleure manière de résoudre le conflit israélo-palestinien ?” ou "Discuter, est-ce renoncer à la violence ?
En outre, "les concepts manipulés par les sciences humaines et sociales n'obéissent pas à des relations strictes entre les mots, contrairement à des formules physiques par exemple", ajoute Nicolas Sabouret. Une IA aura ainsi bien plus de mal à "comprendre" et manipuler le terme "libéral" (sens économique, sens politique) que celui de la théorie de la relativité.
Moins d'erreur, plus d'argent ?
Mais pourquoi pousser un chatbot à donner l’impression de "raisonner" ? D’abord, "si on peut l'amener à simuler un raisonnement par étapes, on peut espérer diminuer les risques de mauvaises réponses", estime Anthony Cohn. En effet, "décortiquer un problème en plusieurs parties peut amener l’IA à se rendre compte si des réponses sont contradictoires et ainsi les éliminer. Ce serait une grande avancée pour les IA génératives", précise Simon Thorne, spécialiste de l'intelligence artificielle à l'université de Cardiff.
OpenAI poursuit aussi un but beaucoup plus terre à terre. Le groupe affirme que son modèle possède "un comportement de plus en plus humain, en raisonnant comme un humain, parce qu’il veut suggérer qu’il s’approche d’une ‘intelligence générale’ [comme les humains, NDLR]", analyse Tom Lenaerts.
Cet anthropomorphisme recherché se retrouve dans l’interface de ChatGPT o1 : le temps que le chatbot met à répondre est indiqué comme s’il réfléchissait, "alors que c’est uniquement le temps de calcul", ajoute Tom Lenaerts.
L’intelligence générale - ou “superintelligence”, comme l’appelle Sam Altman, le PDG d’OpenAI - est le Saint-Graal du groupe. Aboutir dans cette quête est le but officiel d’OpenAI. “C’est sûr que pour y parvenir, savoir raisonner est une étape incontournable, car l’humain le fait tous les jours”, confirme Anthony Cohn.
C’est pour ça qu’OpenAI s’est empressé de publier ce nouveau modèle qui, de l’avis même de la société, est encore “très perfectible”. Sam Altman devait montrer qu’il a une feuille de route pour sa fameuse “superintelligence”. Après tout, la promesse d’y parvenir est une des raisons pour lesquelles OpenAI a autant de succès auprès des investisseurs.