Le chatbot Bard de Google améliore sa logique et son raisonnement. Pour ce faire, Google s’est inspiré de la pensée humaine.
google appelle « exécution implicite de code » la nouvelle capacité de Bard, qui permet au chatbot de reconnaître automatiquement quand un code de programmation peut l’aider à résoudre une tâche. Selon Google, cela inclut explicitement les tâches mathématiques, les requêtes de programmation et les demandes de manipulation de chaînes de caractères.
Grâce à cette nouvelle technique, Bard peut, par exemple, épeler le mot « lollipop » à l’envers. Cependant, il doit générer lui-même le code Python pour résoudre la tâche. Ce qui est nouveau, c’est que Bard reconnaît automatiquement qu’il a besoin de ce code comme outil pour résoudre la tâche de manière plus fiable.
En outre, Google a doté Bard d’une fonction d’exportation vers Google Sheets : lorsque Bard génère une feuille de calcul, celle-ci peut être téléchargée directement vers Sheets.
Système 1 pour la création littéraire, système 2 pour la logique
Google affirme s’être inspiré de la logique des systèmes 1 et 2 du psychologue américain Daniel Kahneman pour l' »exécution implicite de code ». Dans le cerveau humain, le système 1 est responsable des actions rapides et intuitives, tandis que le système 2 est responsable des tâches plus sophistiquées et plus longues, telles que le raisonnement.
Les grands modèles linguistiques sont des systèmes du « système 1 » dans cette logique, et sont donc bien adaptés à la rédaction créative et aux résultats rapides. Ils sont moins adaptés au raisonnement, qui relève davantage du domaine des systèmes informatiques traditionnels, comparativement plus lents, plus formels et moins flexibles.
La nouvelle mise à jour Bard est une combinaison de ces deux capacités de la manière décrite ci-dessus. Lors de tests internes, Google affirme que Bard résout 30 fois plus précisément les tâches qui bénéficient d’un code.
Cependant, le nouveau système n’est pas encore parfait : le chatbot peut ne pas générer de code, et le code généré peut être incorrect ou ne pas être inclus dans le résultat.
Des chercheurs de Google DeepMind et de l’université de Princeton ont récemment dévoilé un cadre appelé « Tree of Thoughts » qui vise également à appliquer le principe du système 1 à un modèle de langage, en combinant l’approche classique de l’arbre de décision avec les nouvelles capacités d’un grand modèle de langage. Cependant, la méthode actuellement utilisée pour Bard est différente.