OpenAI annonce la disponibilité générale du GPT-4, son dernier modèle de génération de texte, via son API.
À partir de cet après-midi, tous les développeurs existants de l’API OpenAI ayant un historique de paiements réussis peuvent accéder au GPT-4. L’entreprise prévoit d’ouvrir l’accès aux nouveaux développeurs d’ici la fin du mois, puis d’augmenter progressivement les limites de disponibilité après cela, « en fonction de la disponibilité de calcul ».
« Des millions de développeurs ont demandé l’accès à l’API GPT-4 depuis mars, et la variété de produits innovants exploitant le GPT-4 ne cesse de croître chaque jour », écrit OpenAI dans un article de blog. « Nous envisageons un avenir où des modèles basés sur le chat pourront prendre en charge tous les cas d’utilisation ».
Le GPT-4 peut générer du texte (y compris du code) et accepter des images et des entrées de texte – une amélioration par rapport au GPT-3.5, son prédécesseur, qui n’acceptait que du texte – et il a des performances « au niveau humain » selon plusieurs références professionnelles et académiques. Comme les modèles GPT précédents d’OpenAI, le GPT-4 a été entraîné à l’aide de données disponibles publiquement, y compris des pages web publiques, ainsi que des données sous licence par OpenAI.
La capacité de compréhension d’images n’est pas encore disponible pour tous les clients d’OpenAI. OpenAI la teste avec un seul partenaire, Be My Eyes, pour commencer. Mais elle n’a pas indiqué quand elle la rendra disponible pour une base de clients plus large.
Il convient de noter que, tout comme les meilleurs modèles d’IA générative aujourd’hui, le GPT-4 n’est pas parfait. Il « hallucine » des faits et commet des erreurs de raisonnement, parfois avec confiance. Et il n’apprend pas de son expérience, échouant dans des problèmes difficiles, comme introduire des vulnérabilités de sécurité dans le code qu’il génère.
À l’avenir, OpenAI prévoit de permettre aux développeurs d’ajuster le GPT-4 et le GPT-3.5 Turbo, un autre de ses récents modèles de génération de texte, mais moins performant (et l’un des modèles originaux qui alimentent ChatGPT), avec leurs propres données, tout comme c’était déjà possible avec plusieurs autres modèles de génération de texte d’OpenAI. Cette fonctionnalité devrait arriver cette année encore, selon OpenAI.
Depuis la révélation du GPT-4 en mars, la compétition dans le domaine de l’IA générative s’est intensifiée. Récemment, Anthropic a étendu la fenêtre contextuelle pour Claude – son principal modèle de génération de texte, encore en version bêta – de 9 000 tokens à 100 000 tokens. (La fenêtre contextuelle fait référence au texte que le modèle considère avant de générer du texte supplémentaire, tandis que les tokens représentent le texte brut – par exemple, le mot « fantastique » serait divisé en tokens « fan », « tas » et « tic ».)
Le GPT-4 détenait le précédent record en termes de fenêtre contextuelle, avec un maximum de 32 000 tokens. En général, les modèles avec de petites fenêtres contextuelles ont tendance à « oublier » le contenu des conversations récentes, ce qui les amène à s’écarter du sujet.
Dans une annonce connexe aujourd’hui, OpenAI a annoncé qu’elle rendait également ses API DALL-E 2 et Whisper disponibles de manière générale – DALL-E 2 étant le modèle de génération d’images d’OpenAI et « Whisper » faisant référence au modèle de parole en texte de l’entreprise. L’entreprise a également déclaré qu’elle prévoyait de mettre fin aux anciens modèles disponibles via son API afin d’optimiser ses capacités de calcul. (Au cours des derniers mois, en grande partie en raison de la popularité croissante de ChatGPT, OpenAI a eu du mal à répondre à la demande pour ses modèles générateurs.)
À partir du 4 janvier 2024, certains anciens modèles d’OpenAI – notamment le GPT-3 et ses dérivés – ne seront plus disponibles et seront remplacés par de nouveaux modèles « base GPT-3 » qui devraient être plus efficaces en termes de traitement. Les développeurs utilisant les anciens modèles devront mettre à jour manuellement leurs intégrations d’ici le 4 janvier, et ceux qui souhaitent continuer à utiliser les anciens modèles ajustés au-delà de cette date devront faire des ajustements en fonction des nouveaux modèles base GPT-3.
« Nous fournirons un soutien aux utilisateurs qui ont ajusté les modèles précédemment pour rendre cette transition aussi fluide que possible », écrit OpenAI. « Au cours des prochaines semaines, nous contacterons les développeurs qui ont récemment utilisé ces anciens modèles et fournirons plus d’informations dès que les nouveaux modèles de complétion seront prêts pour les premiers tests. »
Avec le contenu de TechCrunch.