Tencent Cloud lanza «Modelo como Servicio» (MaaS) para modelos de lenguaje grandes. El servicio está alimentado por una nueva GPU de Nvidia.

Tencent Cloud MaaS ofrece varios modelos de lenguaje integrados que abarcan diferentes sectores, como finanzas, medios de comunicación, turismo o manufactura, que las empresas pueden especializar aún más para sus propósitos. Alternativamente, se pueden entrenar modelos personalizados a través del servicio en la nube.

La empresa ofrece una variedad de herramientas, incluyendo etiquetado de datos, entrenamiento, evaluación, pruebas y herramientas de implementación del modelo.

Tencent fue la primera en China en utilizar las nuevas GPUs de Nvidia

La empresa está colaborando con diversos socios para construir un ecosistema de modelos de lenguaje en chino y ya ha implementado más de 50 soluciones basadas en modelos de lenguaje en más de 10 sectores, según Tang Daosheng, vicepresidente ejecutivo senior de Tencent y jefe del Grupo de Industrias en la Nube e Inteligencia.

Servicios similares son ofrecidos por Baidu en China. Sin embargo, Tencent fue la primera empresa china en abrir un clúster de computación de alto rendimiento con una GPU Nvidia H800 en abril. Además de la GPU de Nvidia, Tencent también cuenta con sus propios servidores StarLake para su centro de datos.

Las restricciones de exportación afectan a la industria de IA de China

En China, la H800 de Nvidia es el acelerador de IA más rápido actualmente disponible. Sin embargo, la H800 es una versión reducida de la vanguardista H100 de Nvidia, que no puede ser vendida en China debido a las restricciones de exportación impuestas por el CHIPS Act de Estados Unidos. Las restricciones afectan a las GPUs A100 y H100 de Nvidia, que se utilizan para el entrenamiento de IA en la mayoría de los centros de datos del mundo.

La empresa ha reducido la velocidad de transferencia de datos de chip a chip de la A100 de 600GBps a 400GBps y está vendiendo la tarjeta como A800. Según expertos chinos, para la H800, la velocidad de transferencia de la H100 se ha reducido a la mitad, de 600GBps a 300GBps. En el entrenamiento de IA, esto puede marcar una gran diferencia, por lo que las empresas con acceso a las tarjetas H100 pueden tener una ventaja sobre las empresas chinas.

En China, Alibaba Group, Baidu y Tencent han elegido todas las tarjetas H800 de Nvidia.