Le modèle d’IA le plus puissant d’OpenAI, GPT-4, est disponible gratuitement dans le chatbot Bing de Microsoft, mais il n’est pas toujours utilisé. Sans doute pour des raisons de coût, Microsoft utilise également ses modèles de langage Turing, ce qui pourrait affecter la qualité de certaines réponses.

Quelque trois mois après son lancement, le chatbot de Bing a encore tendance à faire des erreurs et à donner des réponses peu fiables, plus que le ChatGPT original d’OpenAI. Il y a maintenant une explication possible : le chatbot de Bing ne s’appuie pas systématiquement sur les modèles d’IA d’OpenAI.

Le nouveau Bing est alimenté par un modèle d’IA appelé Prometheus, a déclaré Microsoft lors du lancement du service. Le système assigne les questions dont les réponses sont classées comme « simples » aux modèles de langage de Turing de Microsoft, a déclaré Jordi Ribas, responsable de la recherche et de l’IA, dans une interview accordée à Wired.

Les modèles de Turing font également partie intégrante des résultats de recherche de Bing, comme l’explique Microsoft sur une page d’accueil. Selon Microsoft, ils sont notamment responsables du tri, du remplissage automatique et de l’évaluation de la pertinence des publicités.

Peter Salin, fondateur de la startup Silo AI, suggère que la première réponse est généralement donnée par un modèle Turing, mais que d’autres requêtes produiraient de meilleurs résultats parce qu’elles seraient traitées par GPT-4. De cette manière, Microsoft pourrait économiser sur les coûts de calcul.

M. Ribas rejette l’idée que les réponses initiales du chatbot de Bing sont généralement de qualité inférieure. Selon lui, les réponses inexactes sont plutôt dues à l’absence de contexte dans les requêtes initiales des utilisateurs.

GPT-4 coûte cher

OpenAI n’a pas encore publié les chiffres des recettes et des dépenses de ChatGPT. Dylan Patel, analyste au sein de la société de recherche SemiAnalysis, estime que ChatGPT coûte actuellement à OpenAI environ 700 000 dollars par jour, soit 36 cents par requête, pour un total de plus de 200 millions de dollars par mois.

OpenAI gagne de l’argent grâce à une API payante, l’API GPT-4 en particulier est chère et le modèle d’abonnement ChatGPT Plus coûte 20 dollars par mois, ce qui est une condition pour accéder à GPT-4 via ChatGPT. On ne sait pas encore si OpenAI gagne ou perd de l’argent.

Selon les projections de SimilarWeb, il y avait environ 100 millions d’utilisateurs actifs en janvier. Sur la base des chiffres ci-dessus, si environ dix pour cent d’entre eux possédaient un compte payant, l’exploitation pure et simple de ChatGPT pourrait à peu près couvrir les coûts. Il s’agit toutefois d’un calcul très instable.

Les coûts informatiques élevés sont principalement dus à l’utilisation de cartes graphiques Nvidia, que Microsoft prévoit de remplacer par sa propre puce d’intelligence artificielle, selon The Information. Entre-temps, l’entreprise, qui fournit l’infrastructure pour ChatGPT et d’autres services similaires dans Azure, tente apparemment de minimiser l’utilisation de la coûteuse GPT-4.

Le chatbot IA de Microsoft est intégré dans Bing depuis le début du mois de février 2023 et donne un aperçu de l’avenir possible de la recherche : au lieu de générer une liste de liens, l’IA répond à la question posée dans un résumé compact – au mieux, en incluant des liens vers des sources pertinentes afin que les affirmations du chatbot puissent être validées de l’extérieur. C’est le plus grand avantage de GPT-4 sur Bing par rapport à l’intégration native de ChatGPT.