Tencent Cloud lance le « Model as a Service » (MaaS) pour les grands modèles linguistiques. Le service est alimenté par un nouveau GPU de Nvidia.
Tencent Cloud MaaS propose plusieurs modèles linguistiques intégrés couvrant différents secteurs, tels que la finance, les médias, le tourisme ou l’industrie manufacturière, qui peuvent être spécialisés par les entreprises en fonction de leurs besoins. Il est également possible de former des modèles personnalisés par l’intermédiaire du service en nuage.
L’entreprise propose toute une série d’outils, notamment des outils d’étiquetage des données, de formation, d’évaluation, de test et de déploiement de modèles.
Tencent a été le premier en Chine à utiliser les nouveaux GPU de Nvidia
L’entreprise travaille avec divers partenaires pour construire un écosystème de modèles linguistiques chinois et a déjà déployé plus de 50 solutions basées sur des modèles linguistiques dans plus de 10 industries, selon Tang Daosheng, vice-président exécutif senior de Tencent et chef du groupe Cloud and Smart Industries.
Des services similaires sont proposés par Baidu en Chine. Cependant, Tencent a été la première entreprise chinoise à ouvrir un cluster de calcul à haute performance avec un GPU Nvidia H800 en avril. Outre le GPU Nvidia, Tencent s’appuie également sur ses propres serveurs StarLake pour son centre de données.
Les restrictions à l’exportation affectent l’industrie chinoise de l’IA
En Chine, le H800 de Nvidia est l’accélérateur d’IA le plus rapide actuellement disponible. Cependant, le H800 est une version réduite du H100 haut de gamme de Nvidia, qui ne peut être vendu en Chine en raison des restrictions à l’exportation imposées par le CHIPS Act. Ces restrictions concernent les GPU A100 et H100 de Nvidia, qui sont utilisés pour l’entraînement à l’IA dans la plupart des centres de données du monde entier.
L’entreprise a réduit le taux de transfert de données de puce à puce de l’A100 de 600 Go/s à 400 Go/s et vend la carte sous le nom d’A800. Selon des experts chinois, pour la H800, le taux de transfert de la H100 a été divisé par deux, passant de 600 à 300 Go/s. Dans le cadre de l’apprentissage de l’IA, cela peut nuire à la qualité de la formation. Dans le domaine de la formation à l’IA, cela peut faire une grande différence, de sorte que les entreprises ayant accès aux cartes H100 peuvent avoir un avantage sur les entreprises chinoises.
En Chine, Alibaba Group, Baidu et Tencent ont tous choisi les cartes H800 de Nvidia.