Facebook va débloquer 10 millions d'euros supplémentaires pour son hub européen de recherche en intelligence artificielle, situé à Paris. Nous avons rencontré Antoine Bordes, son directeur, pour comprendre dans le détail ce que ses équipes étudient.
Sheryl Sandberg, numéro 2 du réseau social, est même venue pour l’occasion. Elle a annoncé, ce mardi, l’investissement de 10 millions d’euros supplémentaires dans le laboratoire de recherche en intelligence artificielle de Facebook à Paris et le doublement des effectifs sur le site, qui passent donc de 30 à 60 scientifiques.
Le hub européen de Facebook Artificial Intelligence Research (FAIR), créé en 2015 par Yann LeCun, chief scientist au sein du laboratoire, considéré comme le père fondateur de l’apprentissage profond, et dirigé actuellement par Antoine Bordes, spécialiste de la compréhension du langage naturel, va ainsi devenir le plus important des quatre labos de recherche du réseau social de Mark Zuckerberg. Les trois autres sont situés à New York, Montréal et Menlo Park, dans la baie de Palo Alto. Au total, Facebook emploie actuellement 120 chercheurs spécialisés dans l'IA.
La recherche fondamentale, c’est pas si compliqué
Mais qu’est-ce qu’on fabrique, précisément, dans ces centres où l’on réfléchit et on essaie beaucoup de choses ? Comment se déroule la recherche en intelligence artificielle au quotidien ? Chez FAIR, le fonctionnement semble a priori assez simple. "On donne la liberté aux scientifiques de mener les recherches qu’ils veulent. Nous avons évidemment de grandes directions, comme la compréhension du langage, le dialogue, la perception, la vidéo ou le développement de stratégies, mais ce sont des domaines assez vastes dont ils peuvent s'emparer", explique Antoine Bordes à Mashable FR.
Les trente chercheurs qui débarqueront à FAIR Paris avant 2022 seront recrutés sur des propositions de recherche neuves. Ce qui est relativement compliqué, puisque l'équipe couvre déjà un vaste champ des domaines liés à l'intelligence artificielle. "Nous travaillons sur quelque chose de véritablement important, même si ça paraît un peu abstrait, c'est la recherche de similarité. Je donne une image à l'IA, puis un milliard d'autres, et elle va devoir trouver laquelle est la plus similaire à la première. Deux chercheurs de chez nous ont monté ce projet, nommé FAISS, pour Facebook Artificial Intelligence Similarity Search, qui a eu un effet complètement transformatif au sein de Facebook", explique encore le directeur du centre de recherche européen de Facebook.
"Comment les machines pourraient-elles construire ces modèles ? Si on arrive à résoudre cette question, nous ferons significativement avancer l'IA"
À Paris, les équipes issues d'une douzaine de nationalités différentes se concentrent principalement sur trois autres aspects de l'IA. Le dialogue, c'est-à-dire la compréhension et la gestion du langage humain par une IA, également la spécialité d'Alexandre Lebrun, fondateur de Wit.ai et ingénieur au sein de l'équipe. La vidéo, c'est-à-dire la capacité pour une intelligence artificielle de prédire la suite ou de détecter les formes et les différents aspects d'un enregistrement vidéo. Et les mathématiques, dirigées par une équipe de trois personnes au sein de FAIR Paris, qui se concentrent sur la mise à l'épreuve des codes, des algorithmes et à leur optimisation.
Mais le hub européen de FAIR se dédie uniquement à la recherche fondamentale, c'est-à-dire des travaux expérimentaux ou théoriques qui n'ont pas d'application concrète mais cherchent à faire avancer la connaissance. Pour que Facebook fasse du business avec les découvertes des scientifiques, il faut se déporter de l'autre côté de l'Atlantique.
Un autre laboratoire, nommé Applied Machine Learning (AML), situé entre Seattle et la Californie, a pour mission de faire de la recherche appliquée. "Prenons un exemple. Nos chercheurs ont la mission de créer un système d'IA qui doit traduire 100 langues en 100 autres langues, par paires. Un gros challenge. Nous, nous avons une équipe qui s'occupe de la traduction en cherchant de nouveaux algorithmes innovants. Quand nous en avons un qui marche mieux sur une paire, ils vont prendre la main dessus pour l'utiliser", explique Antoine Bordes à Mashable FR.
L'apprentissage prédictif, la petite marotte de Yann LeCun
En plus de ces recherches fondées sur la technologie des réseaux de neurones artificiels, FAIR Paris réalise des recherches sur ce que Yann LeCun qualifie de "prochaine frontière de l'intelligence artificielle", c'est-à-dire l'apprentissage prédictif. C'est la capacité, pour un système d'intelligence artificielle, de réfléchir à ce qu'il va se passer et d'anticiper cette action. Les réussites récentes d'AlphaGo Zero, l'intelligence artificielle développée par DeepMind, font probablement partie des exemples qui s'en rapprochent le plus. Mais AlphaGo Zero joue à un jeu, pas avec la vie de personnes.
"Le problème, avec le monde réel, c'est que la machine ne peut pas se permettre, par exemple si l'on veut entraîner un agent intelligent à conduire une voiture, de la laisser tomber d'une falaise ou se planter dans un arbre 50 000 fois avant qu'il comprenne ce qu'il doit faire", nous a expliqué Yann LeCun lors d'une séance de questions-réponses avec la presse. "Un des grands débats et des grands mystères de l'intelligence artificielle, c'est comment se fait-il que nous, humains, nous puissions apprendre rapidement, avec très peu d'essais ? Une idée qui m'est très personnelle, même si elle est partagée par plusieurs chercheurs chez FAIR, c'est que les humains et les animaux construisent des modèles prédictifs du monde. Ils savent ce qu'il va se passer avant le choix de l'action. On sait très bien que rentrer dans un arbre n'est pas une bonne idée, parce que nous avons construit un modèle. Comment les machines pourraient-elles construire ces modèles ? Si on arrive à résoudre cette question, nous ferons significativement avancer l'IA."
Les recherches sur les vidéos menées par FAIR Paris peuvent entrer dans le domaine de l'apprentissage prédictif. C'est la possibilité pour un système d'IA d'anticiper ce qu'il va se passer, quelles vont être les formes et les mouvements dans les quelques secondes suivant la mise en pause d'une vidéo. Pour faire évoluer ses connaissances dans le domaine, FAIR Paris collabore par exemple avec Emmanuel Dupoux du laboratoire de sciences cognitives de l'EHESS. Celui-ci travaille sur les mécanismes et les représentations du cerveau chez les bébés. Par exemple, un enfant apprend seul, par l'observation, naturellement et autour de ses huit mois, que n'importe quel objet lâché et tomber. Comment faire comprendre cela à une machine ? Le futur nous le dira.
Quelque chose à ajouter ? Dites-le en commentaire.