El hardware de Nvidia ha ayudado a impulsar la revolución de la inteligencia artificial. Pero Huang cree que esto está recién comenzando.

Impulsada por la creciente demanda y entusiasmo hacia la tecnología de inteligencia artificial, Nvidia ha sido catapultada al escenario de las Mayores Empresas Tecnológicas de este año.

El fabricante de chips saltó de una valoración de $750 mil millones a mucho más allá de una valoración de $1 billón después de superar las expectativas de ganancias en mayo, y ha mantenido su posición fuerte desde entonces.

Como afirmó Bank of America en mayo, Nvidia proporciona las «picks y palas en la fiebre del oro de la IA».

El CEO de la empresa, Jensen Huang, declaró el 8 de agosto que la tecnología de IA alimentada por los chips de Nvidia «reinventará la propia computadora». Las plataformas de cómputo como se conocen actualmente, dijo Huang, pronto serán reemplazadas por nuevas y poderosas plataformas de IA.

«Los modelos de lenguaje grandes son una nueva plataforma de cómputo, porque ahora el lenguaje de programación es humano. Por primera vez, después de unos 15 años, ha surgido una nueva plataforma de cómputo», dijo Huang. «La propia computadora, por supuesto, procesará la información de manera muy diferente.»

Y en cuanto a dirigir las computadoras y plataformas de cómputo hacia modelos de lenguaje grandes, Huang dijo que la computación acelerada de Nvidia trabajará para respaldar esto. Pero al mismo tiempo, el entorno futuro, impregnado de IA generativa, requiere una escala significativa en la nube.

Para ayudar a revolucionar esta escalabilidad en la nube, Huang dijo que Nvidia está impulsando su procesador Grace Hopper Superchip. El nuevo chip, que Huang dijo que combina el Grace Hopper con el chip de memoria más rápido del mundo, HBM3, se llama GH200.

«Los chips están en producción. Este procesador fue diseñado para escalar los centros de datos de todo el mundo. Básicamente, convierte estos dos superchips en un superchip gigante», dijo Huang.

«Podrías tomar prácticamente cualquier modelo de lenguaje grande que desees y ponerlo aquí, e inferirá como loco. El costo de inferencia de modelos de lenguaje grandes disminuirá significativamente». Con contenido de The Street.