Nvidia anuncia primera GPU con memoria HBM3e para entrenamiento de IA. La empresa también lanza una nueva herramienta de IA y establece una asociación con Hugging Face.
Nvidia ha anunciado el nuevo «Superchip Grace Hopper» GH200, que es el sucesor directo de la primera variante GH100. El G200 es la primera GPU con memoria HBM3e. La nueva memoria de 141 gigabytes ofrece 1,55 veces el ancho de banda de memoria y 1,7 veces la capacidad de memoria del chip anterior.
La memoria más rápida y amplia se espera que beneficie el entrenamiento de IA y la inferencia de modelos de IA. El GH200 y los sistemas basados en él deberían estar disponibles en el segundo trimestre de 2024.
Nvidia establece asociación con Hugging Face
Nvidia también anunció una asociación con Hugging Face, uno de los principales repositorios de modelos de IA. La asociación conecta la biblioteca de modelos de Hugging Face con la infraestructura de IA en la nube DGX de Nvidia. Los usuarios de Hugging Face podrán utilizar DGX Cloud para entrenar o ajustar modelos de IA.
Además, Hugging Face presentará un nuevo servicio llamado «Cluster de Entrenamiento como Servicio», impulsado por DGX Cloud, para simplificar la creación de modelos de IA generativos personalizados.
Nvidia lanzará un nuevo conjunto de herramientas de IA
Además de su colaboración con Hugging Face, Nvidia también anunció la cuarta generación de su plataforma de software de IA Enterprise. La novedad principal es la integración de Nvidia NeMo, un conjunto de herramientas para el desarrollo de aplicaciones de IA generativa que ofrece flujos de trabajo para entrenar, ajustar e implementar modelos de lenguaje grandes y otros modelos de IA generativos.
Sin embargo, algo completamente nuevo es el AI Workbench de Nvidia, una interfaz local diseñada para simplificar el desarrollo de IA generativa y reunir los componentes necesarios, como modelos, conjuntos de datos y capacidad de cómputo.
«Con el Nvidia AI Workbench, los desarrolladores pueden personalizar y ejecutar IA generativa con solo unos pocos clics», dijo la empresa. «Esto les permite reunir todos los modelos, estructuras, SDK y bibliotecas necesarios de calidad empresarial, desde repositorios de código abierto y la plataforma Nvidia AI, en un espacio de trabajo unificado para desarrolladores».
El Workbench también ofrece configuraciones predefinidas simples para acelerar el desarrollo. Los modelos entrenados luego pueden ejecutarse fuera del Workbench en cualquier hardware. El AI Workbench es compatible con sistemas Windows y Linux con GPUs RTX, y es respaldado por proveedores como Dell Technologies, Hewlett Packard Enterprise, HP Inc, Lambda, Lenovo y Supermicro, según Nvidia.