Nvidiaは、AIトレーニング用の初のHBM3eメモリを搭載した最初のGPUを発表しました。また、新しいAIツールを発表し、Hugging Faceと提携しました。
Nvidiaは新しい「Superchip Grace Hopper」GH200を発表しました。これは初のGH100の直接の後継機です。GH200は、HBM3eメモリを搭載した初のGPUです。新しい141ギガバイトのメモリは、以前のチップと比べてメモリバンド幅が1.55倍、メモリ容量が1.7倍となる性能を提供します。
より速く広いメモリは、AIトレーニングとAIモデルの推論に利益をもたらすことが期待されます。GH200およびそれに基づくシステムは、2024年第2四半期に利用可能になる予定です。
NvidiaはHugging Faceと提携
NvidiaはHugging Faceと提携しました。Hugging Faceは主要なAIモデルのリポジトリの1つです。この提携により、Hugging FaceのモデルライブラリがNvidiaのDGXクラウドAIインフラストラクチャに接続されます。Hugging FaceのユーザーはDGXクラウドを使用してAIモデルをトレーニングまたは調整することができます。
さらに、Hugging FaceはDGXクラウドを活用した新しい「トレーニングクラスターサービス」を導入します。これにより、カスタム生成モデルの作成が簡素化されます。
Nvidiaが新しいAIツールセットを発表
Hugging Faceとの協力に加えて、NvidiaはAIエンタープライズソフトウェアの第4世代を発表しました。主な特徴は、Nvidia NeMoの統合です。これは、生成型AIアプリケーション開発のためのツールセットで、大規模な言語モデルや他の生成型AIモデルのトレーニング、調整、展開のワークフローを提供します。
また、NvidiaのAI Workbenchは新しいもので、生成型AIの開発を簡素化するためのローカルインターフェースです。モデル、データセット、計算能力など、必要なコンポーネントを一括でまとめることができます。
Nvidiaによれば、「Nvidia AI Workbenchを使用すると、開発者はわずか数クリックで生成型AIをカスタマイズして実行できます。これにより、すべてのモデル、フレームワーク、SDK、およびオープンソースリポジトリから品質の高いエンタープライズ向けコンポーネントを一元化したワークスペースを開発者が作成できます。」
Workbenchは開発を加速するためのシンプルなプリセット設定も提供します。トレーニングされたモデルはWorkbench外で任意のハードウェアで実行できます。AI Workbenchは、WindowsとLinuxのGPU RTXを備えたシステムと互換性があり、Dell Technologies、Hewlett Packard Enterprise、HP Inc、Lambda、Lenovo、Supermicroなどのベンダーによってサポートされています。