O hardware da Nvidia ajudou a impulsionar a revolução da inteligência artificial. Mas Huang acredita que isso está apenas começando.
Impulsionada pela crescente demanda e entusiasmo em relação à tecnologia de inteligência artificial, a Nvidia foi catapultada para o cenário das Maiores Empresas de Tecnologia neste ano.
A fabricante de chips saltou de uma avaliação de $750 bilhões para bem além de uma avaliação de $1 trilhão após superar as expectativas de ganhos em dobro em maio, e tem se mantido forte desde então.
Como o Bank of America afirmou em maio, a Nvidia fornece as “picaretas e pás na corrida do ouro da IA”.
O CEO da empresa, Jensen Huang, disse em 8 de agosto que a tecnologia de IA alimentada pelos chips da Nvidia “reinventará o próprio computador”. Plataformas de computação como são conhecidas atualmente, disse Huang, em breve serão substituídas por novas e poderosas plataformas de IA.
“Os modelos de linguagem grandes são uma nova plataforma de computação, porque agora a linguagem de programação é humana. Pela primeira vez, após cerca de 15 anos, surgiu uma nova plataforma de computação”, disse Huang. “O próprio computador, é claro, processará as informações de maneira muito diferente.”
E em termos de direcionar computadores e plataformas de computação para modelos de linguagem grandes, Huang disse que a computação acelerada da Nvidia trabalhará para dar suporte a isso. Mas ao mesmo tempo, o ambiente futuro, impregnado de IA generativa, requer uma escala significativa na nuvem.
Para ajudar a revolucionar essa escalabilidade na nuvem, Huang disse que a Nvidia está dando um “impulso” ao seu processador Grace Hopper Superchip. O novo chip, que Huang disse ser o Grace Hopper combinado com o chip de memória mais rápido do mundo, HBM3, é chamado de GH200.
“Os chips estão em produção. Este processador foi projetado para escalonar os data centers do mundo. Basicamente, transforma esses dois superchips em um superchip de tamanho gigante”, disse Huang.
“Você poderia pegar praticamente qualquer modelo de linguagem grande que quiser e colocá-lo aqui, e ele fará inferências como louco. O custo de inferência de modelos de linguagem grandes cairá significativamente.” Com conteúdo do The Street.