Nvidiaは、AIトレーニング用の初のHBM3eメモリを搭載した最初のGPUを発表しました。また、新しいAIツールを発表し、Hugging Faceと提携しました。

Nvidiaは新しい「Superchip Grace Hopper」GH200を発表しました。これは初のGH100の直接の後継機です。GH200は、HBM3eメモリを搭載した初のGPUです。新しい141ギガバイトのメモリは、以前のチップと比べてメモリバンド幅が1.55倍、メモリ容量が1.7倍となる性能を提供します。

より速く広いメモリは、AIトレーニングとAIモデルの推論に利益をもたらすことが期待されます。GH200およびそれに基づくシステムは、2024年第2四半期に利用可能になる予定です。

NvidiaはHugging Faceと提携

NvidiaはHugging Faceと提携しました。Hugging Faceは主要なAIモデルのリポジトリの1つです。この提携により、Hugging FaceのモデルライブラリがNvidiaのDGXクラウドAIインフラストラクチャに接続されます。Hugging FaceのユーザーはDGXクラウドを使用してAIモデルをトレーニングまたは調整することができます。

さらに、Hugging FaceはDGXクラウドを活用した新しい「トレーニングクラスターサービス」を導入します。これにより、カスタム生成モデルの作成が簡素化されます。

Nvidiaが新しいAIツールセットを発表

Hugging Faceとの協力に加えて、NvidiaはAIエンタープライズソフトウェアの第4世代を発表しました。主な特徴は、Nvidia NeMoの統合です。これは、生成型AIアプリケーション開発のためのツールセットで、大規模な言語モデルや他の生成型AIモデルのトレーニング、調整、展開のワークフローを提供します。

また、NvidiaのAI Workbenchは新しいもので、生成型AIの開発を簡素化するためのローカルインターフェースです。モデル、データセット、計算能力など、必要なコンポーネントを一括でまとめることができます。

Nvidiaによれば、「Nvidia AI Workbenchを使用すると、開発者はわずか数クリックで生成型AIをカスタマイズして実行できます。これにより、すべてのモデル、フレームワーク、SDK、およびオープンソースリポジトリから品質の高いエンタープライズ向けコンポーネントを一元化したワークスペースを開発者が作成できます。」

Workbenchは開発を加速するためのシンプルなプリセット設定も提供します。トレーニングされたモデルはWorkbench外で任意のハードウェアで実行できます。AI Workbenchは、WindowsとLinuxのGPU RTXを備えたシステムと互換性があり、Dell Technologies、Hewlett Packard Enterprise、HP Inc、Lambda、Lenovo、Supermicroなどのベンダーによってサポートされています。