Nvidia annonce le premier GPU avec mémoire HBM3e pour l’apprentissage automatique. La société lance également un nouvel outil d’IA et conclut un partenariat avec Hugging Face.
Nvidia a annoncé la nouvelle « Superpuce Grace Hopper » GH200, qui est le successeur direct de la première variante GH100. Le G200 est le premier GPU avec mémoire HBM3e. La nouvelle mémoire de 141 gigaoctets offre 1,55 fois la largeur de bande mémoire et 1,7 fois la capacité mémoire de la puce précédente.
La mémoire plus rapide et plus large est censée profiter à l’apprentissage automatique et à l’inférence des modèles d’IA. Le GH200 et les systèmes basés sur celui-ci devraient être disponibles au deuxième trimestre de 2024.
Nvidia conclut un partenariat avec Hugging Face
Nvidia a également annoncé un partenariat avec Hugging Face, l’un des principaux référentiels de modèles d’IA. Ce partenariat relie la bibliothèque de modèles de Hugging Face à l’infrastructure d’IA en nuage DGX de Nvidia. Les utilisateurs de Hugging Face pourront utiliser DGX Cloud pour entraîner ou ajuster des modèles d’IA.
De plus, Hugging Face introduira un nouveau service appelé « Cluster de formation en tant que service », alimenté par DGX Cloud, pour simplifier la création de modèles d’IA génératifs personnalisés.
Nvidia lancera un nouvel ensemble d’outils d’IA
En plus de sa collaboration avec Hugging Face, Nvidia a également annoncé la quatrième génération de sa plateforme logicielle d’IA Enterprise. La principale nouveauté est l’intégration de Nvidia NeMo, un ensemble d’outils pour le développement d’applications d’IA générative qui offre des flux de travail pour l’entraînement, l’ajustement et le déploiement de grands modèles de langage et d’autres modèles d’IA génératifs.
Cependant, quelque chose de complètement nouveau est le AI Workbench de Nvidia, une interface locale conçue pour simplifier le développement de l’IA générative et rassembler les composants nécessaires, tels que les modèles, les ensembles de données et la puissance de calcul.
« Avec le Nvidia AI Workbench, les développeurs peuvent personnaliser et exécuter l’IA générative en quelques clics seulement », a déclaré l’entreprise. « Cela leur permet de rassembler tous les modèles, frameworks, SDK et bibliothèques nécessaires de qualité professionnelle, depuis les référentiels open source et la plateforme Nvidia AI, dans un espace de travail unifié pour les développeurs. »
Le Workbench propose également des configurations prédéfinies simples pour accélérer le développement. Les modèles formés peuvent ensuite être exécutés en dehors du Workbench sur n’importe quel matériel. Le AI Workbench est compatible avec les systèmes Windows et Linux équipés de GPU RTX, et il est également pris en charge par des fournisseurs tels que Dell Technologies, Hewlett Packard Enterprise, HP Inc, Lambda, Lenovo et Supermicro, selon Nvidia.