Nvidia anuncia primeiro GPU com memória HBM3e para treinamento de IA. A empresa também lança uma nova ferramenta de IA e firma parceria com a Hugging Face.

A Nvidia anunciou o novo “Superchip Grace Hopper” GH200, que é o sucessor direto da primeira variante GH100. O G200 é o primeiro GPU com memória HBM3e. A nova memória de 141 gigabytes oferece 1,55 vezes a largura de banda de memória e 1,7 vezes a capacidade de memória do chip anterior.

A memória mais rápida e ampla tem a expectativa de beneficiar o treinamento de IA e a inferência de modelos de IA. O GH200 e os sistemas baseados nele devem estar disponíveis no segundo trimestre de 2024.

Nvidia firma parceria com a Hugging Face

A Nvidia também anunciou uma parceria com a Hugging Face, um dos principais repositórios de modelos de IA. A parceria conecta a biblioteca de modelos da Hugging Face à infraestrutura de IA em nuvem DGX da Nvidia. Os usuários da Hugging Face poderão usar a DGX Cloud para treinar ou ajustar modelos de IA.

Além disso, a Hugging Face introduzirá um novo serviço chamado “Cluster de Treinamento como Serviço”, alimentado pela DGX Cloud, para simplificar a criação de modelos de IA generativos personalizados.

Nvidia lançará novo conjunto de ferramentas de IA

Além de sua colaboração com a Hugging Face, a Nvidia também anunciou a quarta geração de sua plataforma de software de IA Enterprise. A principal novidade é a integração do Nvidia NeMo, um conjunto de ferramentas para desenvolvimento de aplicações de IA generativa que oferece fluxos de trabalho para treinamento, ajuste e implementação de modelos de linguagem grandes e outros modelos de IA generativos.

No entanto, algo completamente novo é o AI Workbench da Nvidia, uma interface local projetada para simplificar o desenvolvimento de IA generativa e reunir os componentes necessários, como modelos, conjuntos de dados e capacidade de computação.

“Com o Nvidia AI Workbench, os desenvolvedores podem personalizar e executar IA generativa com apenas alguns cliques”, disse a empresa. “Isso permite que eles reúnam todos os modelos, estruturas, SDKs e bibliotecas necessárias de qualidade empresarial, de repositórios de código aberto e da plataforma Nvidia AI, em um espaço de trabalho unificado para desenvolvedores.”

O Workbench também oferece configurações predefinidas simples para acelerar o desenvolvimento. Os modelos treinados podem então ser executados fora do Workbench em qualquer hardware. O AI Workbench é compatível com sistemas Windows e Linux com GPUs RTX, além de ser suportado por fornecedores como Dell Technologies, Hewlett Packard Enterprise, HP Inc, Lambda, Lenovo e Supermicro, de acordo com a Nvidia.