AIGC Computing Power Panorama and Trend Report publié ! Un article interprète la composition de la puissance de calcul de l'AIGC, la chaîne industrielle et cinq nouveaux jugements de tendance
La puissance de calcul de l'IA n'a jamais été aussi accrocheuse qu'aujourd'hui.
Depuis l'émergence de la tendance des grands modèles, le nombre et l'échelle des grands modèles ont considérablement augmenté en quelques mois seulement.
Les dizaines de milliards de centaines de milliards de grands modèles sont passés à des dizaines, et le grand modèle à mille milliards de paramètres est officiellement né.
** Sous des changements d'une telle ampleur, la demande de puissance de calcul montre des changements drastiques **.
Les entreprises de niveau modèle s'arrachent des services de puissance de calcul à presque tout prix.La valeur marchande de Nvidia dépassait autrefois un billion de dollars américains, et le marché du cloud computing est en train de se remodeler à un rythme accéléré...
Il ne fait aucun doute que la puissance de calcul est la même énergie de base que l'hydroélectricité et le pétrole pour le développement de l'industrie AIGC.
Après le prélude à l'ère AIGC, comment comprendre l'industrie de la puissance de calcul est particulièrement important.
De quelle puissance de calcul l'entreprise a-t-elle besoin ? Quels changements vont se produire dans l'industrie de la puissance de calcul en raison de la montée en puissance de l'AIGC ? Quelle est la composition actuelle du marché de la puissance de calcul ?
"AIGC Computing Power Panorama and Trend Report" est là pour vous aider à comprendre ces problèmes.
Dans le rapport, le groupe de réflexion qubit a systématiquement analysé la composition de la puissance de calcul AIGC et de la chaîne industrielle, et a en outre souligné les cinq nouvelles tendances de la puissance de calcul AIGC** et les prévisions de développement de trois étapes .
Les idées de base incluent :
Sous l'impulsion de l'AIGC, les puces se disputent les hautes performances et la grande puissance de calcul, et introduisent une nouvelle architecture informatique ;
Le serveur AI a surgi soudainement, et la courbe de bonus est d'abord entraînée puis raisonnée;
Remodelage du paradigme de service cloud MaaS, boucle fermée du modèle commercial AIGC ;
La machine tout-en-un modèle AI est prête à sortir et l'industrie traditionnelle est "prête à l'emploi";
Le centre de calcul intelligent accompagne le fonctionnement de l'AIGC, et le modèle de location de puissance de calcul est devenu une nouvelle solution ;
……
Regardons les détails un par un.
La croissance de l'activité des fabricants de serveurs nationaux dépasse 30 %
D'après l'analyse du statu quo actuel de l'industrie, le corps principal de l'industrie comprend principalement :
ébrécher
Serveur IA (cluster)
Cloud computing
Couche de puce : les deux routes AIGC fournissent la puissance de calcul
Dans les puces informatiques, il existe actuellement deux voies principales dans l'industrie pour répondre aux besoins en puissance de calcul de l'industrie AIGC.
L'une est la route GPU représentée par Nvidia, appelée puce universelle.
L'autre est la route ASIC représentée par Huawei et le Cambrian, qui s'appelle ** route de puce spéciale **.
A l'heure actuelle, ces deux voies rassemblent différents types d'acteurs, et les tâches informatiques qu'ils entreprennent sont également différentes.
Sous la route des puces à usage général, il peut effectuer diverses tâches informatiques et convient au calcul parallèle à grande échelle.
C'est-à-dire que la puce à usage général (GPU) est plus adaptée à la puissance de calcul actuelle d'AIGC.
L'avantage de l'itinéraire dédié se reflète dans le meilleur rapport efficacité énergétique dans des scénarios spécifiques. Étant donné que les puces à usage spécial sont conçues pour effectuer des tâches spécialisées ou personnalisées, elles peuvent atteindre un meilleur rapport d'efficacité énergétique et une meilleure efficacité de calcul que les puces à usage général dans des scénarios spécifiques**.
Tout simplement parce que les puces dédiées peuvent libérer une plus grande efficacité de calcul dans des scénarios spécifiques, c'est également devenu la voie technique choisie par Internet et d'autres fournisseurs de cloud lors du développement de leurs propres puces.
Habituellement, les puces auto-développées des fabricants de cloud Internet servent principalement leurs propres produits, en mettant l'accent sur la libération maximale des performances des puces dans leur propre écologie.
### Couche serveur : la croissance de l'activité est évidente, principalement basée sur les clients Internet
La demande d'AIGC en matière de calcul haute performance a fait des serveurs d'IA le segment à la croissance la plus rapide dans le domaine des serveurs.
La formation de grands modèles, tels que GPT-3, nécessite beaucoup de ressources informatiques et de mémoire, et implique généralement l'utilisation de milliers, voire de dizaines de milliers de GPU pour accélérer la formation.
Étant donné que ces calculs ont des exigences très élevées en matière de performances des puces, du matériel et des logiciels spécialisés sont nécessaires pour prendre en charge le calcul massivement parallèle et la transmission de données à grande vitesse.
Les serveurs IA sont des serveurs spécialement conçus pour gérer les charges de travail de l'intelligence artificielle, en utilisant des accélérateurs matériels spécialisés (tels que les GPU, les TPU, etc.), ainsi que des connexions réseau et un stockage à haut débit pour fournir des capacités de calcul hautes performances.
En revanche, les processeurs (serveurs à usage général) ne peuvent généralement pas répondre à la demande de puissance de calcul extrême de l'AIGC, et leur puissance de calcul, leur mémoire et leur capacité de stockage sont généralement faibles. De plus, les processeurs ne disposent généralement pas d'accélérateurs matériels dédiés pour fournir un calcul à grande vitesse.
Par conséquent, la formation de modèles à grande échelle doit s'appuyer sur des clusters de serveurs IA pour fournir des services informatiques.
Selon les recherches de Qubit Think Tank, après l'apparition de l'AIGC cette année, les fabricants de serveurs nationaux ont généralement augmenté leur activité de plus de 30 %**.
Récemment, TrendForce a également augmenté le taux de croissance annuel composé des expéditions de serveurs d'IA de 2022 à 2026 à 22 %. Derrière la montée en flèche de l'activité des serveurs d'IA, les plus gros acheteurs sont toujours les sociétés Internet.
En 2022, les grands fabricants tels que ByteDance, Tencent, Alibaba, Baidu, etc. deviendront les principaux acheteurs dans la proportion des achats de serveurs d'IA. Cette année, l'enthousiasme pour la recherche et le développement de modèles à grande échelle a stimulé la demande d'achat des sociétés Internet en aval, ce qui en fait toujours le plus gros acheteur de serveurs d'IA.
### Cloud Computing : MaaS remodèle le modèle de service, les anciens et les nouveaux acteurs restructurent la compétitivité
Le modèle MaaS a d'abord été proposé par Ali, puis de grandes sociétés Internet et des sociétés d'intelligence artificielle (telles que SenseTime) ont introduit le modèle MaaS.
De plus, des entreprises telles que les géants de l'Internet et Huawei ont déjà utilisé des puces auto-développées dans la construction de bases MaaS.
En 2023, les principaux fabricants nationaux de cloud lanceront successivement leurs propres plates-formes MaaS, basées sur de grandes bases de modèles, pour fournir des services MaaS à guichet unique aux entreprises disposant de ressources informatiques limitées et d'un manque d'expérience professionnelle.
Pour les fournisseurs de cloud, l'objectif principal des services MaaS est d'aider les clients à créer rapidement de grands modèles spécifiques à l'industrie. Sur cette base, la dimension de la concurrence entre les fournisseurs de cloud s'est transformée en infrastructure de puissance de calcul, en capacités générales de modèles à grande échelle et en capacités de plate-forme/d'outil d'IA.
### Statut du centre de calcul intelligent : alimentation électrique de l'IA au niveau de l'infrastructure, créant un nouveau moteur pour la croissance économique régionale
Du point de vue de la distribution d'équipements informatiques, sur le marché des serveurs et des serveurs d'IA, Pékin, Guangdong, Zhejiang, Shanghai et Jiangsu se classent dans le top cinq, avec une part de marché totale de (serveur et serveur d'IA) de 75 % et 90 % (données 2021) .
Du point de vue de l'offre, la plupart des centres de calcul intelligents sont situés dans les provinces Est et Centre, et l'activité AIGC doit traiter des données massives, ce qui entraîne le coût élevé des ressources de puissance de calcul dans les Est**.
Déplacer des tâches avec des exigences informatiques élevées telles que la formation de modèles à grande échelle vers la région occidentale forme "** East Data Training **", qui peut réduire efficacement les coûts et atteindre le coût global optimal des ressources du réseau informatique.
Plus précisément, afin de résoudre des problèmes tels que l'offre et la demande déséquilibrées de la demande de puissance de calcul, il est nécessaire de transférer la puissance de calcul et les tâches de traitement de données de l'est vers la région de l'ouest à moindre coût grâce à la planification de la puissance de calcul. Parmi eux, l'optimisation du réseau d'interconnexion entre l'est et l'ouest et le réseau de connexion directe entre nœuds hub est la clé pour améliorer le niveau d'ordonnancement de la puissance de calcul.
Du point de vue de la demande, la demande de puissance de calcul AIGC provient principalement des fabricants qui développent de grands modèles AIGC, principalement distribués dans la région Pékin-Tianjin-Hebei, le delta du fleuve Yangtze et la région de la Grande Baie.
La révolution des serveurs à puce est en train d'émerger
La tendance des grands modèles met en avant de nouvelles exigences en matière de puissance de calcul et entraîne de nouvelles modifications du matériel sous-jacent. Examinons deux niveaux de puces et de serveurs :
niveau puce
À l'heure actuelle, parmi les puces hautes performances, Nvidia A100 a un avantage absolu, et A100 n'a de stock qu'en Chine mais pas d'augmentation.Le marché intérieur offrira aux fabricants de GPU nationaux plus d'opportunités**.
De plus, au niveau de la fonderie de puces, il n'existe actuellement aucune fonderie nationale capable d'entreprendre des processus de 7 nm et plus, et la plupart des fabricants de GPU choisissent des processus matures + des solutions d'emballage avancées pour obtenir des indicateurs de performance plus élevés.
Au niveau du cluster de serveurs, le calcul haute performance est réalisé grâce au calcul parallèle multi-cartes multi-machines et au réseau haute performance.
Étant donné que l'écologie produit matériel + CUDA construite par Nvidia est difficile à percer en 10 ans, à l'avenir lorsque le GPU haute performance sera limité, les analystes prédisent qu'il y aura deux solutions principales pour la couche matérielle, la dernière consiste à développer la technologie GPU + inter-chip Interconnect pour réaliser un calcul massivement parallèle**.
L'autre consiste à sortir de l'architecture von Neumann et à ** développer une architecture intégrée de stockage et de calcul ** pour intégrer des unités de calcul et des unités de stockage afin d'améliorer d'un ordre de grandeur l'efficacité énergétique du calcul.
Au niveau logiciel, l'informatique parcimonieuse et la construction d'un réseau haute performance sont actuellement deux solutions.
L'innovation du calcul parcimonieux se reflète au niveau de l'algorithme. En supprimant les données invalides ou redondantes (ces données sont généralement énormes), la quantité de données à calculer est considérablement réduite, accélérant ainsi le calcul.
Le but de la construction d'un réseau performant est de réduire le temps d'apprentissage des grands modèles. En construisant un réseau haute performance, chaque nœud de calcul dispose d'une bande passante de communication ultra-élevée, apportant plusieurs fois l'amélioration des performances du trafic, raccourcissant ainsi le temps d'apprentissage des grands modèles.
### Niveau serveur
La demande de puissance de calcul des grands modèles d'IA augmente de façon exponentielle, faisant des serveurs d'IA avec des configurations plus élevées le principal vecteur de puissance de calcul AIGC.
Par rapport aux serveurs traditionnels, les capacités de calcul, de stockage et de transmission réseau des serveurs IA peuvent atteindre un niveau supérieur.
Par exemple, la configuration du serveur NVIDIA DGX A100 avec 8 GPU et 2 CPU est bien supérieure à celle des serveurs traditionnels avec 1 à 2 CPU.
Dans mon pays, l'Intelligent Computing Center est une plate-forme d'infrastructure publique qui fournit des ressources de puissance de calcul pour l'intelligence artificielle (grands modèles), et ses unités de puissance de calcul sont principalement des serveurs de formation à l'IA et des serveurs de raisonnement à l'IA.
Avec l'évolution des grands modèles, la principale demande pour les futurs serveurs d'IA passera de la formation à l'inférence. Selon les prévisions d'IDC, d'ici 2026, 62,2 % de la puissance de calcul de l'AIGC seront utilisées pour le raisonnement des modèles.
## Les évolutions du secteur génèrent de nouvelles opportunités commerciales
De plus, la tendance des modèles d'IA à grande échelle offre de nouvelles opportunités à l'industrie de la puissance de calcul, et de nouveaux paradigmes, de nouveaux produits et de nouvelles infrastructures émergent.
Nouvelles règles du jeu : le MaaS remodèle le paradigme des services cloud, la boucle fermée du modèle commercial AIGC
MaaS (modèle en tant que service) intègre de grands modèles dans la puissance de calcul, les algorithmes et les couches d'application, intègre des applications avec des bases intelligentes et unifie la sortie externe.
L'essence de MaaS est d'affiner et d'intégrer des technologies de base communes dans l'industrie dans des services pour répondre aux besoins de divers scénarios d'application.
Au cours du processus de commercialisation, les capacités de modélisation à grande échelle et les outils middleware de soutien deviendront de nouvelles dimensions à prendre en compte par les entreprises pour les fournisseurs de cloud computing.
Le discriminant des capacités de service de cloud computing est passé du niveau de puissance de calcul à la capacité "d'intégration de l'intelligence du cloud". En plus de l'infrastructure de puissance de calcul, la compétitivité de base a changé pour la capacité à créer de la puissance de calcul, des modèles et des applications de scène en produits standardisés.
### Nouvelle espèce : la machine tout-en-un modèle AI est prête à sortir, les industries traditionnelles "prêtes à l'emploi"
La machine tout-en-un modèle AI intègre profondément les logiciels et le matériel.Selon les différents besoins des entreprises, les produits ou solutions correspondants sont déployés à l'avance sur le serveur AI et conditionnés pour former un ensemble complet de solutions.
L'avantage de coût de la machine tout-en-un modèle AI se reflète principalement dans les trois points suivants :
Le prix d'achat global est inférieur au prix d'achat séparé du logiciel + du matériel ;
Il faut beaucoup de temps à l'entreprise pour acheter le serveur séparément et le remettre à l'entreprise d'IA pour déployer le logiciel.La machine tout-en-un du modèle AI peut être utilisée prête à l'emploi, réduire le coût de livraison;
Le nombre de serveurs requis est considérablement réduit, ce qui réduit les coûts d'espace pour les clients.
### Nouvelle infrastructure : le centre de calcul intelligent accompagne les opérations AIGC, le mode de location de puissance de calcul devient une nouvelle solution
Le modèle de location de puissance de calcul peut effectivement abaisser le seuil de développement de modèles à grande échelle.Pour les petites entreprises modèles dans les industries verticales qui n'ont pas la force d'acheter suffisamment de serveurs d'IA, la plate-forme de base de puissance de calcul publique aidera les petites et moyennes entreprises construire leurs propres modèles requis.
Les entreprises n'ont pas besoin d'acheter des serveurs, mais peuvent accéder au centre de puissance informatique via un navigateur et utiliser les services de puissance informatique.
Pour les petites et moyennes entreprises, il n'est pas nécessaire de s'appuyer sur la grande base de modèles construite par les fournisseurs de cloud pour le développement secondaire, mais de développer de petits modèles d'industries verticales en louant des ressources de puissance de calcul à partir de plates-formes de puissance de calcul publiques.
Prévisions de développement de l'industrie
En résumé, le think tank qubit prédit le développement futur de l'AIGC, qui peut être divisé en trois étapes :
Période d'infrastructure AIGC
Période de développement AIGC
Période d'activité AIGC
Période d'infrastructure AIGC
À l'heure actuelle, la plupart des entreprises de la couche de modèle AIGC sont en phase de pré-formation et la principale source de demande de puces est le GPU.
Dans un premier temps, les fabricants de GPU hautes performances deviendront les principaux bénéficiaires.
Cependant, il existe actuellement un grand écart entre les fabricants nationaux de GPU et Nvidia, et le premier bénéficiaire est la partie dominante du marché boursier.
Par conséquent, les fabricants nationaux de serveurs d'IA sont de solides fournisseurs à ce stade. À l'heure actuelle, le domaine des serveurs d'IA nationaux est rare.
### Période de développement AIGC
À moyen terme (dans les 5 ans), la couche de puissance de calcul est un processus d'apprentissage allant de la formation au raisonnement.
À ce stade, les puces de raisonnement deviendront le principal côté de la demande. Par rapport à la puissance de calcul élevée et à la consommation d'énergie élevée du GPU et au gaspillage de puissance de calcul correspondant, la puce d'inférence accorde plus d'attention au taux d'efficacité de calcul de la puce et a un meilleur contrôle sur la consommation d'énergie et le coût. De plus, cette étape sera également l'occasion de puces innovantes.
Les analystes s'attendent à davantage d'opportunités de marché pour les puces intégrées de calcul de mémoire, les puces inspirées du cerveau et les puces optiques en silicium.
Dans la phase d'inférence, l'edge computing aura plus d'opportunités que le cloud computing dans la phase de formation.
Tout d'abord, les applications correspondant à l'étape d'inférence ont tendance à être diversifiées, et les diverses exigences font que le cloud computing génère plus de gaspillage de puissance de calcul et une faible efficacité de calcul.
Deuxièmement, l'edge computing peut fournir une puissance de calcul suffisante pour le raisonnement de grands modèles.
À ce stade, la période de dividende des fabricants de serveurs d'IA atteindra progressivement son pic et la demande se déplacera vers des serveurs à usage général à moindre coût ; les puces passeront également du GPU au NPU/ASIC/FPGA/CPU et d'autres formes coexisteront. Parmi les voies des puces innovantes nationales, ** est optimiste quant au développement de l'architecture intégrée de stockage et de calcul **.
### Période commerciale AIGC
Les avantages d'innovation sous-jacents des puces ont commencé à émerger, et les fabricants de puces dotés de technologies véritablement innovantes telles que l'intégration de stockage et de calcul, les puces photoniques et les puces de type cerveau ont accru leur rôle sur le marché.
Les types de puces nécessaires à la puissance de calcul AIGC sont plus diversifiés.
À ce stade, les entreprises ont une considération plus globale de la puissance de calcul, non seulement en tenant compte de la taille de la puissance de calcul, mais la consommation d'énergie et le coût peuvent dépasser la taille de la puissance de calcul et devenir les indicateurs dont les entreprises se soucient à tous les niveaux de modèle.
Recevoir le rapport
Cliquez sur le lien ci-dessous:
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
AIGC Computing Power Panorama and Trend Report publié ! Un article interprète la composition de la puissance de calcul de l'AIGC, la chaîne industrielle et cinq nouveaux jugements de tendance
Source : Qubit
La puissance de calcul de l'IA n'a jamais été aussi accrocheuse qu'aujourd'hui.
Depuis l'émergence de la tendance des grands modèles, le nombre et l'échelle des grands modèles ont considérablement augmenté en quelques mois seulement.
Les dizaines de milliards de centaines de milliards de grands modèles sont passés à des dizaines, et le grand modèle à mille milliards de paramètres est officiellement né.
** Sous des changements d'une telle ampleur, la demande de puissance de calcul montre des changements drastiques **.
Les entreprises de niveau modèle s'arrachent des services de puissance de calcul à presque tout prix.La valeur marchande de Nvidia dépassait autrefois un billion de dollars américains, et le marché du cloud computing est en train de se remodeler à un rythme accéléré...
Après le prélude à l'ère AIGC, comment comprendre l'industrie de la puissance de calcul est particulièrement important.
De quelle puissance de calcul l'entreprise a-t-elle besoin ? Quels changements vont se produire dans l'industrie de la puissance de calcul en raison de la montée en puissance de l'AIGC ? Quelle est la composition actuelle du marché de la puissance de calcul ?
"AIGC Computing Power Panorama and Trend Report" est là pour vous aider à comprendre ces problèmes.
Dans le rapport, le groupe de réflexion qubit a systématiquement analysé la composition de la puissance de calcul AIGC et de la chaîne industrielle, et a en outre souligné les cinq nouvelles tendances de la puissance de calcul AIGC** et les prévisions de développement de trois étapes .
Regardons les détails un par un.
La croissance de l'activité des fabricants de serveurs nationaux dépasse 30 %
D'après l'analyse du statu quo actuel de l'industrie, le corps principal de l'industrie comprend principalement :
Couche de puce : les deux routes AIGC fournissent la puissance de calcul
Dans les puces informatiques, il existe actuellement deux voies principales dans l'industrie pour répondre aux besoins en puissance de calcul de l'industrie AIGC.
L'une est la route GPU représentée par Nvidia, appelée puce universelle.
L'autre est la route ASIC représentée par Huawei et le Cambrian, qui s'appelle ** route de puce spéciale **.
A l'heure actuelle, ces deux voies rassemblent différents types d'acteurs, et les tâches informatiques qu'ils entreprennent sont également différentes.
Sous la route des puces à usage général, il peut effectuer diverses tâches informatiques et convient au calcul parallèle à grande échelle.
C'est-à-dire que la puce à usage général (GPU) est plus adaptée à la puissance de calcul actuelle d'AIGC.
L'avantage de l'itinéraire dédié se reflète dans le meilleur rapport efficacité énergétique dans des scénarios spécifiques. Étant donné que les puces à usage spécial sont conçues pour effectuer des tâches spécialisées ou personnalisées, elles peuvent atteindre un meilleur rapport d'efficacité énergétique et une meilleure efficacité de calcul que les puces à usage général dans des scénarios spécifiques**.
Tout simplement parce que les puces dédiées peuvent libérer une plus grande efficacité de calcul dans des scénarios spécifiques, c'est également devenu la voie technique choisie par Internet et d'autres fournisseurs de cloud lors du développement de leurs propres puces.
Habituellement, les puces auto-développées des fabricants de cloud Internet servent principalement leurs propres produits, en mettant l'accent sur la libération maximale des performances des puces dans leur propre écologie.
La demande d'AIGC en matière de calcul haute performance a fait des serveurs d'IA le segment à la croissance la plus rapide dans le domaine des serveurs.
La formation de grands modèles, tels que GPT-3, nécessite beaucoup de ressources informatiques et de mémoire, et implique généralement l'utilisation de milliers, voire de dizaines de milliers de GPU pour accélérer la formation.
Étant donné que ces calculs ont des exigences très élevées en matière de performances des puces, du matériel et des logiciels spécialisés sont nécessaires pour prendre en charge le calcul massivement parallèle et la transmission de données à grande vitesse.
Les serveurs IA sont des serveurs spécialement conçus pour gérer les charges de travail de l'intelligence artificielle, en utilisant des accélérateurs matériels spécialisés (tels que les GPU, les TPU, etc.), ainsi que des connexions réseau et un stockage à haut débit pour fournir des capacités de calcul hautes performances.
En revanche, les processeurs (serveurs à usage général) ne peuvent généralement pas répondre à la demande de puissance de calcul extrême de l'AIGC, et leur puissance de calcul, leur mémoire et leur capacité de stockage sont généralement faibles. De plus, les processeurs ne disposent généralement pas d'accélérateurs matériels dédiés pour fournir un calcul à grande vitesse.
Par conséquent, la formation de modèles à grande échelle doit s'appuyer sur des clusters de serveurs IA pour fournir des services informatiques.
Selon les recherches de Qubit Think Tank, après l'apparition de l'AIGC cette année, les fabricants de serveurs nationaux ont généralement augmenté leur activité de plus de 30 %**.
Récemment, TrendForce a également augmenté le taux de croissance annuel composé des expéditions de serveurs d'IA de 2022 à 2026 à 22 %. Derrière la montée en flèche de l'activité des serveurs d'IA, les plus gros acheteurs sont toujours les sociétés Internet.
En 2022, les grands fabricants tels que ByteDance, Tencent, Alibaba, Baidu, etc. deviendront les principaux acheteurs dans la proportion des achats de serveurs d'IA. Cette année, l'enthousiasme pour la recherche et le développement de modèles à grande échelle a stimulé la demande d'achat des sociétés Internet en aval, ce qui en fait toujours le plus gros acheteur de serveurs d'IA.
Le modèle MaaS a d'abord été proposé par Ali, puis de grandes sociétés Internet et des sociétés d'intelligence artificielle (telles que SenseTime) ont introduit le modèle MaaS.
De plus, des entreprises telles que les géants de l'Internet et Huawei ont déjà utilisé des puces auto-développées dans la construction de bases MaaS.
En 2023, les principaux fabricants nationaux de cloud lanceront successivement leurs propres plates-formes MaaS, basées sur de grandes bases de modèles, pour fournir des services MaaS à guichet unique aux entreprises disposant de ressources informatiques limitées et d'un manque d'expérience professionnelle.
Pour les fournisseurs de cloud, l'objectif principal des services MaaS est d'aider les clients à créer rapidement de grands modèles spécifiques à l'industrie. Sur cette base, la dimension de la concurrence entre les fournisseurs de cloud s'est transformée en infrastructure de puissance de calcul, en capacités générales de modèles à grande échelle et en capacités de plate-forme/d'outil d'IA.
Du point de vue de la distribution d'équipements informatiques, sur le marché des serveurs et des serveurs d'IA, Pékin, Guangdong, Zhejiang, Shanghai et Jiangsu se classent dans le top cinq, avec une part de marché totale de (serveur et serveur d'IA) de 75 % et 90 % (données 2021) .
Du point de vue de l'offre, la plupart des centres de calcul intelligents sont situés dans les provinces Est et Centre, et l'activité AIGC doit traiter des données massives, ce qui entraîne le coût élevé des ressources de puissance de calcul dans les Est**.
Déplacer des tâches avec des exigences informatiques élevées telles que la formation de modèles à grande échelle vers la région occidentale forme "** East Data Training **", qui peut réduire efficacement les coûts et atteindre le coût global optimal des ressources du réseau informatique.
Plus précisément, afin de résoudre des problèmes tels que l'offre et la demande déséquilibrées de la demande de puissance de calcul, il est nécessaire de transférer la puissance de calcul et les tâches de traitement de données de l'est vers la région de l'ouest à moindre coût grâce à la planification de la puissance de calcul. Parmi eux, l'optimisation du réseau d'interconnexion entre l'est et l'ouest et le réseau de connexion directe entre nœuds hub est la clé pour améliorer le niveau d'ordonnancement de la puissance de calcul.
Du point de vue de la demande, la demande de puissance de calcul AIGC provient principalement des fabricants qui développent de grands modèles AIGC, principalement distribués dans la région Pékin-Tianjin-Hebei, le delta du fleuve Yangtze et la région de la Grande Baie.
La révolution des serveurs à puce est en train d'émerger
La tendance des grands modèles met en avant de nouvelles exigences en matière de puissance de calcul et entraîne de nouvelles modifications du matériel sous-jacent. Examinons deux niveaux de puces et de serveurs :
niveau puce
À l'heure actuelle, parmi les puces hautes performances, Nvidia A100 a un avantage absolu, et A100 n'a de stock qu'en Chine mais pas d'augmentation.Le marché intérieur offrira aux fabricants de GPU nationaux plus d'opportunités**.
De plus, au niveau de la fonderie de puces, il n'existe actuellement aucune fonderie nationale capable d'entreprendre des processus de 7 nm et plus, et la plupart des fabricants de GPU choisissent des processus matures + des solutions d'emballage avancées pour obtenir des indicateurs de performance plus élevés.
Au niveau du cluster de serveurs, le calcul haute performance est réalisé grâce au calcul parallèle multi-cartes multi-machines et au réseau haute performance.
Étant donné que l'écologie produit matériel + CUDA construite par Nvidia est difficile à percer en 10 ans, à l'avenir lorsque le GPU haute performance sera limité, les analystes prédisent qu'il y aura deux solutions principales pour la couche matérielle, la dernière consiste à développer la technologie GPU + inter-chip Interconnect pour réaliser un calcul massivement parallèle**.
L'autre consiste à sortir de l'architecture von Neumann et à ** développer une architecture intégrée de stockage et de calcul ** pour intégrer des unités de calcul et des unités de stockage afin d'améliorer d'un ordre de grandeur l'efficacité énergétique du calcul.
Au niveau logiciel, l'informatique parcimonieuse et la construction d'un réseau haute performance sont actuellement deux solutions.
L'innovation du calcul parcimonieux se reflète au niveau de l'algorithme. En supprimant les données invalides ou redondantes (ces données sont généralement énormes), la quantité de données à calculer est considérablement réduite, accélérant ainsi le calcul.
Le but de la construction d'un réseau performant est de réduire le temps d'apprentissage des grands modèles. En construisant un réseau haute performance, chaque nœud de calcul dispose d'une bande passante de communication ultra-élevée, apportant plusieurs fois l'amélioration des performances du trafic, raccourcissant ainsi le temps d'apprentissage des grands modèles.
La demande de puissance de calcul des grands modèles d'IA augmente de façon exponentielle, faisant des serveurs d'IA avec des configurations plus élevées le principal vecteur de puissance de calcul AIGC.
Par rapport aux serveurs traditionnels, les capacités de calcul, de stockage et de transmission réseau des serveurs IA peuvent atteindre un niveau supérieur.
Par exemple, la configuration du serveur NVIDIA DGX A100 avec 8 GPU et 2 CPU est bien supérieure à celle des serveurs traditionnels avec 1 à 2 CPU.
Dans mon pays, l'Intelligent Computing Center est une plate-forme d'infrastructure publique qui fournit des ressources de puissance de calcul pour l'intelligence artificielle (grands modèles), et ses unités de puissance de calcul sont principalement des serveurs de formation à l'IA et des serveurs de raisonnement à l'IA.
Avec l'évolution des grands modèles, la principale demande pour les futurs serveurs d'IA passera de la formation à l'inférence. Selon les prévisions d'IDC, d'ici 2026, 62,2 % de la puissance de calcul de l'AIGC seront utilisées pour le raisonnement des modèles.
## Les évolutions du secteur génèrent de nouvelles opportunités commerciales
De plus, la tendance des modèles d'IA à grande échelle offre de nouvelles opportunités à l'industrie de la puissance de calcul, et de nouveaux paradigmes, de nouveaux produits et de nouvelles infrastructures émergent.
Nouvelles règles du jeu : le MaaS remodèle le paradigme des services cloud, la boucle fermée du modèle commercial AIGC
MaaS (modèle en tant que service) intègre de grands modèles dans la puissance de calcul, les algorithmes et les couches d'application, intègre des applications avec des bases intelligentes et unifie la sortie externe.
L'essence de MaaS est d'affiner et d'intégrer des technologies de base communes dans l'industrie dans des services pour répondre aux besoins de divers scénarios d'application.
Au cours du processus de commercialisation, les capacités de modélisation à grande échelle et les outils middleware de soutien deviendront de nouvelles dimensions à prendre en compte par les entreprises pour les fournisseurs de cloud computing.
Le discriminant des capacités de service de cloud computing est passé du niveau de puissance de calcul à la capacité "d'intégration de l'intelligence du cloud". En plus de l'infrastructure de puissance de calcul, la compétitivité de base a changé pour la capacité à créer de la puissance de calcul, des modèles et des applications de scène en produits standardisés.
La machine tout-en-un modèle AI intègre profondément les logiciels et le matériel.Selon les différents besoins des entreprises, les produits ou solutions correspondants sont déployés à l'avance sur le serveur AI et conditionnés pour former un ensemble complet de solutions.
L'avantage de coût de la machine tout-en-un modèle AI se reflète principalement dans les trois points suivants :
Le modèle de location de puissance de calcul peut effectivement abaisser le seuil de développement de modèles à grande échelle.Pour les petites entreprises modèles dans les industries verticales qui n'ont pas la force d'acheter suffisamment de serveurs d'IA, la plate-forme de base de puissance de calcul publique aidera les petites et moyennes entreprises construire leurs propres modèles requis.
Les entreprises n'ont pas besoin d'acheter des serveurs, mais peuvent accéder au centre de puissance informatique via un navigateur et utiliser les services de puissance informatique.
Pour les petites et moyennes entreprises, il n'est pas nécessaire de s'appuyer sur la grande base de modèles construite par les fournisseurs de cloud pour le développement secondaire, mais de développer de petits modèles d'industries verticales en louant des ressources de puissance de calcul à partir de plates-formes de puissance de calcul publiques.
Prévisions de développement de l'industrie
En résumé, le think tank qubit prédit le développement futur de l'AIGC, qui peut être divisé en trois étapes :
Période d'infrastructure AIGC
À l'heure actuelle, la plupart des entreprises de la couche de modèle AIGC sont en phase de pré-formation et la principale source de demande de puces est le GPU.
Dans un premier temps, les fabricants de GPU hautes performances deviendront les principaux bénéficiaires.
Cependant, il existe actuellement un grand écart entre les fabricants nationaux de GPU et Nvidia, et le premier bénéficiaire est la partie dominante du marché boursier.
Par conséquent, les fabricants nationaux de serveurs d'IA sont de solides fournisseurs à ce stade. À l'heure actuelle, le domaine des serveurs d'IA nationaux est rare.
À moyen terme (dans les 5 ans), la couche de puissance de calcul est un processus d'apprentissage allant de la formation au raisonnement.
À ce stade, les puces de raisonnement deviendront le principal côté de la demande. Par rapport à la puissance de calcul élevée et à la consommation d'énergie élevée du GPU et au gaspillage de puissance de calcul correspondant, la puce d'inférence accorde plus d'attention au taux d'efficacité de calcul de la puce et a un meilleur contrôle sur la consommation d'énergie et le coût. De plus, cette étape sera également l'occasion de puces innovantes.
Les analystes s'attendent à davantage d'opportunités de marché pour les puces intégrées de calcul de mémoire, les puces inspirées du cerveau et les puces optiques en silicium.
Dans la phase d'inférence, l'edge computing aura plus d'opportunités que le cloud computing dans la phase de formation.
Tout d'abord, les applications correspondant à l'étape d'inférence ont tendance à être diversifiées, et les diverses exigences font que le cloud computing génère plus de gaspillage de puissance de calcul et une faible efficacité de calcul.
Deuxièmement, l'edge computing peut fournir une puissance de calcul suffisante pour le raisonnement de grands modèles.
À ce stade, la période de dividende des fabricants de serveurs d'IA atteindra progressivement son pic et la demande se déplacera vers des serveurs à usage général à moindre coût ; les puces passeront également du GPU au NPU/ASIC/FPGA/CPU et d'autres formes coexisteront. Parmi les voies des puces innovantes nationales, ** est optimiste quant au développement de l'architecture intégrée de stockage et de calcul **.
Les avantages d'innovation sous-jacents des puces ont commencé à émerger, et les fabricants de puces dotés de technologies véritablement innovantes telles que l'intégration de stockage et de calcul, les puces photoniques et les puces de type cerveau ont accru leur rôle sur le marché.
Les types de puces nécessaires à la puissance de calcul AIGC sont plus diversifiés.
À ce stade, les entreprises ont une considération plus globale de la puissance de calcul, non seulement en tenant compte de la taille de la puissance de calcul, mais la consommation d'énergie et le coût peuvent dépasser la taille de la puissance de calcul et devenir les indicateurs dont les entreprises se soucient à tous les niveaux de modèle.
Recevoir le rapport
Cliquez sur le lien ci-dessous: