Le matériel de Nvidia a contribué à stimuler la révolution de l’intelligence artificielle. Mais Huang pense que cela ne fait que commencer.

Portée par la demande croissante et l’enthousiasme entourant la technologie de l’intelligence artificielle, Nvidia a été propulsée sur la scène des Grandes Entreprises Technologiques cette année.

Le fabricant de puces est passé d’une valorisation de 750 milliards de dollars à bien plus d’un billion de dollars après avoir dépassé les attentes en matière de bénéfices en mai, et il est resté fort depuis.

Comme l’a déclaré la Bank of America en mai, Nvidia fournit les « pioches et les pelles dans la ruée vers l’or de l’IA ».

Le PDG de l’entreprise, Jensen Huang, a déclaré le 8 août que la technologie de l’IA alimentée par les puces de Nvidia « réinventera l’ordinateur lui-même ». Les plateformes de calcul telles qu’elles sont actuellement connues, a dit Huang, seront bientôt remplacées par de nouvelles plateformes puissantes d’IA.

« Les grands modèles de langage sont une nouvelle plateforme de calcul, car maintenant la programmation est humaine. Pour la première fois, après environ 15 ans, une nouvelle plateforme de calcul est apparue », a déclaré Huang. « L’ordinateur lui-même, bien sûr, traitera les informations de manière très différente. »

Et en ce qui concerne l’orientation des ordinateurs et des plateformes de calcul vers les grands modèles de langage, Huang a déclaré que le calcul accéléré de Nvidia travaillera pour le soutenir. Mais en même temps, l’avenir, imprégné d’IA générative, exige une échelle significative dans le cloud.

Pour aider à révolutionner cette évolutivité dans le cloud, Huang a déclaré que Nvidia donnait un « coup de pouce » à son processeur Superchip Grace Hopper. La nouvelle puce, que Huang a dit être le Grace Hopper combiné avec la puce mémoire la plus rapide du monde, HBM3, s’appelle le GH200.

« Les puces sont en production. Ce processeur a été conçu pour mettre à l’échelle les centres de données du monde. Fondamentalement, il transforme ces deux superpuces en une superpuce géante », a dit Huang.

« Vous pourriez prendre pratiquement n’importe quel grand modèle de langage que vous voulez et le mettre ici, et il fera des inférences comme fou. Le coût de l’inférence des grands modèles de langage diminuera considérablement. » Avec des informations de The Street.