Selon un nouveau rapport des analystes de Bloomberg Intelligence plus tôt cette année, l'industrie de l'IA pourrait croître à un taux de 42 % d'ici une décennie, en commençant par les fondamentaux nécessaires à la formation des systèmes d'IA. équipement de suivi qui utilise des modèles d’intelligence artificielle, de la publicité et d’autres services. La sortie d'outils d'IA axés sur le consommateur, tels que ChatGPT et Bard de Google, alimentera un boom d'une décennie qui fera passer les revenus du marché de l'AIGC de 40 milliards de dollars l'année dernière à environ 1,3 billion de dollars d'ici 2032.
Source de l'image : générée par Unbounded AI
L’IA générative (AIGC) est de plus en plus adoptée, notamment dans les entreprises.
Par exemple, Walmart a récemment annoncé qu'il déploierait une application AIGC auprès de 50 000 associés hors magasin. Selon Axios, l'application combine les données de Walmart avec des modèles de langage étendus (LLM) tiers pour aider les employés à accomplir une gamme de tâches, allant de l'accélération du processus de rédaction à l'action en tant que partenaire créatif en passant par la synthèse de documents volumineux et bien plus encore.
De tels déploiements contribuent à stimuler la demande de cartes graphiques (GPU) nécessaires à la formation de puissants modèles d'apprentissage en profondeur. Les GPU des cartes graphiques sont des processeurs informatiques spécialisés qui exécutent des instructions programmées en parallèle plutôt que séquentiellement comme les unités centrales de traitement (CPU) traditionnelles.
Selon le Wall Street Journal, la formation de ces modèles « pourrait coûter des milliards aux entreprises en raison des quantités massives de données qu'elles doivent ingérer et analyser. » Fournit la prise en charge des applications de chatbot ChatGPT et Bard.
01. Surfer sur la vague de l'IA générative
La tendance AIGC a donné un puissant coup de pouce au principal fournisseur de GPU Nvidia : la société a annoncé des bénéfices époustouflants pour son dernier trimestre. C'est au moins une période de boom pour Nvidia, car presque toutes les grandes entreprises technologiques tentent de mettre la main sur des cartes graphiques IA haut de gamme.
Erin Griffiths écrit dans le New York Times que les startups et les investisseurs prennent des mesures extraordinaires pour mettre la main sur ces puces : « Ce dont les entreprises technologiques ont désespérément besoin cette année, ce n’est pas l’argent, les talents en ingénierie, le battage médiatique ou même les profits, mais le désir de GPU."
Ben Thompson l'appelle "Nvidia au sommet de la colline" dans le bulletin Stratechery de cette semaine. Cet élan a été encore alimenté par l'annonce d'un partenariat entre Google et Nvidia qui permettra aux clients cloud de Google d'avoir un meilleur accès à la technologie basée sur les GPU Nvidia. Tout cela témoigne de la rareté actuelle de ces puces face à une demande croissante.
Les demandes actuelles marquent-elles l’aboutissement d’une nouvelle génération d’IA, ou annoncent-elles peut-être le début de la prochaine vague de développements ?
02. Comment les technologies génératives façonnent l'avenir de l'informatique
Le PDG de Nvidia, Jensen Huang, a déclaré lors de la récente conférence téléphonique sur les résultats de la société que cette demande signalait l'aube de « l'informatique accélérée ». Il a ajouté qu'il serait sage pour les entreprises de « détourner les investissements en capital de l'informatique à usage général et de se concentrer sur la génération d'intelligence artificielle et l'accélération de l'informatique ».
L'informatique à usage général fait référence aux processeurs conçus pour une variété de tâches, des feuilles de calcul aux bases de données relationnelles en passant par l'ERP. Nvidia estime que les processeurs sont désormais une infrastructure héritée et que les développeurs devraient optimiser le code du GPU pour effectuer les tâches plus efficacement que les processeurs traditionnels.
Les GPU peuvent effectuer de nombreux calculs simultanément, ce qui les rend idéaux pour des tâches telles que l'apprentissage automatique (ML) qui effectuent des millions de calculs en parallèle. Les GPU sont également particulièrement performants pour certains types de calculs mathématiques, tels que les tâches d’algèbre linéaire et de manipulation matricielle, qui sont à la base du deep learning et de l’intelligence artificielle.
03. Les GPU offrent peu d'avantages à certains types de logiciels
Cependant, d’autres catégories de logiciels, y compris la plupart des applications métiers existantes, sont optimisées pour fonctionner sur des processeurs et bénéficient peu de l’exécution d’instructions parallèles par des GPU.
Thompson semble avoir un point de vue similaire : "Mon interprétation du point de vue de Huang est que tous ces GPU seront utilisés pour bon nombre des mêmes activités qui s'exécutent actuellement sur les CPU ; c'est certainement un point de vue optimiste pour Nvidia car cela signifie poursuivre tout excès. La capacité que l’IA générative peut créer sera comblée par les charges de travail actuelles du cloud computing.
Il poursuit : « Cela étant dit, j'en doute : les humains et les entreprises sont paresseux, et les applications basées sur CPU sont non seulement plus faciles à développer, mais sont pour la plupart déjà construites. J'ai du mal à imaginer quelles entreprises prendraient le temps et effort Portant quelque chose qui s'exécute déjà sur le CPU vers le GPU.
04. L'histoire se répète
Matt Assay d'InfoWorld nous rappelle que nous avons déjà vu cela. "Lorsque l'apprentissage automatique est apparu, les scientifiques des données l'ont appliqué à tout, même s'il existait des outils plus simples. Comme l'a souligné un jour le scientifique des données Noah Lorang : " Seul un petit sous-ensemble de problèmes commerciaux est mieux résolu par l'apprentissage automatique ; la plupart des gens veulent juste du bon. données et comprendre ce que cela signifie. "
Le fait est que le calcul accéléré et les GPU ne répondent pas à tous les besoins logiciels.
Nvidia a connu un bon trimestre, porté par la ruée actuelle vers le développement d'une nouvelle génération d'applications d'IA. L’entreprise est naturellement enthousiasmée par cette démarche. Cependant, comme nous l’avons vu lors du récent Gartner Emerging Technology Hype Cycle, cette nouvelle génération d’IA traverse une période difficile et se trouve au sommet des attentes exagérées.
Peter Diamandis, fondateur de l'Université Singularity et de XPRIZE, a déclaré que les attentes étaient de voir le potentiel de l'avenir sans aucun inconvénient. "À ce moment-là, le battage médiatique a commencé à générer un enthousiasme injustifié et des attentes exagérées."
05. Limites actuelles
À ce stade, nous atteindrons bientôt les limites de l’engouement actuel pour l’AIGC. Comme l'écrivaient les investisseurs en capital-risque Paul Kedrosky et Eric Norlin de SK Ventures sur le Substack de leur entreprise : "Notre point de vue est que nous sommes à la fin de la première vague d'IA basée sur de grands modèles de langage. Cette vague a commencé en 2017, avec [Google] Avec la sortie du document Transformer ("L'attention est tout ce dont vous avez besoin") et sa conclusion dans un an ou deux, les gens sont confrontés à diverses limitations. "
Ces limitations incluent « une tendance aux hallucinations, des données de formation insuffisantes dans un domaine restreint, des corpus de formation d'il y a des années qui sont obsolètes, ou une myriade d'autres raisons. » Ils ajoutent : « Nous sommes déjà à la fin de l'actuel Vague d'IA."
Pour être clair, Kedrosky et Norlin ne pensent pas que l’IA soit dans une impasse. Au lieu de cela, ils soutiennent que des améliorations technologiques substantielles sont nécessaires pour obtenir quelque chose de mieux qu’une automatisation médiocre et une croissance limitée de la productivité. Ils pensent que la prochaine vague inclura de nouveaux modèles, plus open source, et surtout des « GPU omniprésents/bon marché » qui, s'ils sont corrects, ne sont peut-être pas de bon augure pour Nvidia mais permettront à ceux qui en ont besoin. La technologie profite aux gens.
Comme l'a noté Fortune, Amazon a clairement fait part de son intention de contester directement la domination de Nvidia dans la fabrication de puces. Ils ne sont pas seuls et de nombreuses startups se disputent des parts de marché, tout comme les géants des puces, dont AMD. Il est extrêmement difficile de contester un opérateur historique dominant. Dans ce cas au moins, l’élargissement de la source de ces puces et la réduction du prix de cette technologie rare seront essentiels au développement et à la diffusion de la vague d’innovations AIGC.
06 La prochaine vague d'IA
Malgré les limites des modèles et des applications de la génération actuelle, l’avenir de l’AIGC s’annonce prometteur. Il y a probablement plusieurs raisons derrière cet engagement, mais la plus importante est peut-être la pénurie générationnelle de travailleurs dans l’ensemble de l’économie, qui continuera de stimuler la demande de niveaux plus élevés d’automatisation.
Bien que l’IA et l’automatisation aient historiquement été considérées comme distinctes, cette vision évolue avec l’émergence de l’AIGC. La technologie devient de plus en plus un moteur d’automatisation et de productivité. Mike Knoop, co-fondateur de la société de workflow Zapier, a mentionné ce phénomène dans un récent podcast Eye on AI, déclarant : « L'intelligence artificielle et l'automatisation s'effondrent en la même chose. »
Bien sûr, McKinsey le croit. "AIGC est sur le point de déclencher la prochaine vague de productivité", ont-ils déclaré dans un récent rapport. Et ils ne sont pas seuls. Par exemple, Goldman Sachs a déclaré qu’une nouvelle génération d’intelligence artificielle pourrait augmenter le PIB mondial de 7 %.
Que nous soyons ou non au sommet de la génération actuelle d’IA, il s’agit clairement d’un domaine qui continuera d’évoluer et de susciter des débats au sein de l’entreprise. Si les défis sont grands, les opportunités le sont aussi, surtout dans un monde avide d’innovation et d’efficacité. La bataille pour la domination des GPU n’est qu’un aperçu de ce récit qui se déroule, un prologue du futur chapitre de l’intelligence artificielle et de l’informatique.
Les références:
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L’AIGC est à un point d’inflexion : quelle est la prochaine étape en matière d’adoption dans le monde réel ?
Source originale : AGI Innovation Lab
Selon un nouveau rapport des analystes de Bloomberg Intelligence plus tôt cette année, l'industrie de l'IA pourrait croître à un taux de 42 % d'ici une décennie, en commençant par les fondamentaux nécessaires à la formation des systèmes d'IA. équipement de suivi qui utilise des modèles d’intelligence artificielle, de la publicité et d’autres services. La sortie d'outils d'IA axés sur le consommateur, tels que ChatGPT et Bard de Google, alimentera un boom d'une décennie qui fera passer les revenus du marché de l'AIGC de 40 milliards de dollars l'année dernière à environ 1,3 billion de dollars d'ici 2032.
L’IA générative (AIGC) est de plus en plus adoptée, notamment dans les entreprises.
Par exemple, Walmart a récemment annoncé qu'il déploierait une application AIGC auprès de 50 000 associés hors magasin. Selon Axios, l'application combine les données de Walmart avec des modèles de langage étendus (LLM) tiers pour aider les employés à accomplir une gamme de tâches, allant de l'accélération du processus de rédaction à l'action en tant que partenaire créatif en passant par la synthèse de documents volumineux et bien plus encore.
De tels déploiements contribuent à stimuler la demande de cartes graphiques (GPU) nécessaires à la formation de puissants modèles d'apprentissage en profondeur. Les GPU des cartes graphiques sont des processeurs informatiques spécialisés qui exécutent des instructions programmées en parallèle plutôt que séquentiellement comme les unités centrales de traitement (CPU) traditionnelles.
Selon le Wall Street Journal, la formation de ces modèles « pourrait coûter des milliards aux entreprises en raison des quantités massives de données qu'elles doivent ingérer et analyser. » Fournit la prise en charge des applications de chatbot ChatGPT et Bard.
01. Surfer sur la vague de l'IA générative
La tendance AIGC a donné un puissant coup de pouce au principal fournisseur de GPU Nvidia : la société a annoncé des bénéfices époustouflants pour son dernier trimestre. C'est au moins une période de boom pour Nvidia, car presque toutes les grandes entreprises technologiques tentent de mettre la main sur des cartes graphiques IA haut de gamme.
Erin Griffiths écrit dans le New York Times que les startups et les investisseurs prennent des mesures extraordinaires pour mettre la main sur ces puces : « Ce dont les entreprises technologiques ont désespérément besoin cette année, ce n’est pas l’argent, les talents en ingénierie, le battage médiatique ou même les profits, mais le désir de GPU."
Ben Thompson l'appelle "Nvidia au sommet de la colline" dans le bulletin Stratechery de cette semaine. Cet élan a été encore alimenté par l'annonce d'un partenariat entre Google et Nvidia qui permettra aux clients cloud de Google d'avoir un meilleur accès à la technologie basée sur les GPU Nvidia. Tout cela témoigne de la rareté actuelle de ces puces face à une demande croissante.
Les demandes actuelles marquent-elles l’aboutissement d’une nouvelle génération d’IA, ou annoncent-elles peut-être le début de la prochaine vague de développements ?
02. Comment les technologies génératives façonnent l'avenir de l'informatique
Le PDG de Nvidia, Jensen Huang, a déclaré lors de la récente conférence téléphonique sur les résultats de la société que cette demande signalait l'aube de « l'informatique accélérée ». Il a ajouté qu'il serait sage pour les entreprises de « détourner les investissements en capital de l'informatique à usage général et de se concentrer sur la génération d'intelligence artificielle et l'accélération de l'informatique ».
L'informatique à usage général fait référence aux processeurs conçus pour une variété de tâches, des feuilles de calcul aux bases de données relationnelles en passant par l'ERP. Nvidia estime que les processeurs sont désormais une infrastructure héritée et que les développeurs devraient optimiser le code du GPU pour effectuer les tâches plus efficacement que les processeurs traditionnels.
Les GPU peuvent effectuer de nombreux calculs simultanément, ce qui les rend idéaux pour des tâches telles que l'apprentissage automatique (ML) qui effectuent des millions de calculs en parallèle. Les GPU sont également particulièrement performants pour certains types de calculs mathématiques, tels que les tâches d’algèbre linéaire et de manipulation matricielle, qui sont à la base du deep learning et de l’intelligence artificielle.
03. Les GPU offrent peu d'avantages à certains types de logiciels
Cependant, d’autres catégories de logiciels, y compris la plupart des applications métiers existantes, sont optimisées pour fonctionner sur des processeurs et bénéficient peu de l’exécution d’instructions parallèles par des GPU.
Thompson semble avoir un point de vue similaire : "Mon interprétation du point de vue de Huang est que tous ces GPU seront utilisés pour bon nombre des mêmes activités qui s'exécutent actuellement sur les CPU ; c'est certainement un point de vue optimiste pour Nvidia car cela signifie poursuivre tout excès. La capacité que l’IA générative peut créer sera comblée par les charges de travail actuelles du cloud computing.
Il poursuit : « Cela étant dit, j'en doute : les humains et les entreprises sont paresseux, et les applications basées sur CPU sont non seulement plus faciles à développer, mais sont pour la plupart déjà construites. J'ai du mal à imaginer quelles entreprises prendraient le temps et effort Portant quelque chose qui s'exécute déjà sur le CPU vers le GPU.
04. L'histoire se répète
Matt Assay d'InfoWorld nous rappelle que nous avons déjà vu cela. "Lorsque l'apprentissage automatique est apparu, les scientifiques des données l'ont appliqué à tout, même s'il existait des outils plus simples. Comme l'a souligné un jour le scientifique des données Noah Lorang : " Seul un petit sous-ensemble de problèmes commerciaux est mieux résolu par l'apprentissage automatique ; la plupart des gens veulent juste du bon. données et comprendre ce que cela signifie. "
Le fait est que le calcul accéléré et les GPU ne répondent pas à tous les besoins logiciels.
Nvidia a connu un bon trimestre, porté par la ruée actuelle vers le développement d'une nouvelle génération d'applications d'IA. L’entreprise est naturellement enthousiasmée par cette démarche. Cependant, comme nous l’avons vu lors du récent Gartner Emerging Technology Hype Cycle, cette nouvelle génération d’IA traverse une période difficile et se trouve au sommet des attentes exagérées.
Peter Diamandis, fondateur de l'Université Singularity et de XPRIZE, a déclaré que les attentes étaient de voir le potentiel de l'avenir sans aucun inconvénient. "À ce moment-là, le battage médiatique a commencé à générer un enthousiasme injustifié et des attentes exagérées."
05. Limites actuelles
À ce stade, nous atteindrons bientôt les limites de l’engouement actuel pour l’AIGC. Comme l'écrivaient les investisseurs en capital-risque Paul Kedrosky et Eric Norlin de SK Ventures sur le Substack de leur entreprise : "Notre point de vue est que nous sommes à la fin de la première vague d'IA basée sur de grands modèles de langage. Cette vague a commencé en 2017, avec [Google] Avec la sortie du document Transformer ("L'attention est tout ce dont vous avez besoin") et sa conclusion dans un an ou deux, les gens sont confrontés à diverses limitations. "
Ces limitations incluent « une tendance aux hallucinations, des données de formation insuffisantes dans un domaine restreint, des corpus de formation d'il y a des années qui sont obsolètes, ou une myriade d'autres raisons. » Ils ajoutent : « Nous sommes déjà à la fin de l'actuel Vague d'IA."
Pour être clair, Kedrosky et Norlin ne pensent pas que l’IA soit dans une impasse. Au lieu de cela, ils soutiennent que des améliorations technologiques substantielles sont nécessaires pour obtenir quelque chose de mieux qu’une automatisation médiocre et une croissance limitée de la productivité. Ils pensent que la prochaine vague inclura de nouveaux modèles, plus open source, et surtout des « GPU omniprésents/bon marché » qui, s'ils sont corrects, ne sont peut-être pas de bon augure pour Nvidia mais permettront à ceux qui en ont besoin. La technologie profite aux gens.
Comme l'a noté Fortune, Amazon a clairement fait part de son intention de contester directement la domination de Nvidia dans la fabrication de puces. Ils ne sont pas seuls et de nombreuses startups se disputent des parts de marché, tout comme les géants des puces, dont AMD. Il est extrêmement difficile de contester un opérateur historique dominant. Dans ce cas au moins, l’élargissement de la source de ces puces et la réduction du prix de cette technologie rare seront essentiels au développement et à la diffusion de la vague d’innovations AIGC.
06 La prochaine vague d'IA
Malgré les limites des modèles et des applications de la génération actuelle, l’avenir de l’AIGC s’annonce prometteur. Il y a probablement plusieurs raisons derrière cet engagement, mais la plus importante est peut-être la pénurie générationnelle de travailleurs dans l’ensemble de l’économie, qui continuera de stimuler la demande de niveaux plus élevés d’automatisation.
Bien que l’IA et l’automatisation aient historiquement été considérées comme distinctes, cette vision évolue avec l’émergence de l’AIGC. La technologie devient de plus en plus un moteur d’automatisation et de productivité. Mike Knoop, co-fondateur de la société de workflow Zapier, a mentionné ce phénomène dans un récent podcast Eye on AI, déclarant : « L'intelligence artificielle et l'automatisation s'effondrent en la même chose. »
Bien sûr, McKinsey le croit. "AIGC est sur le point de déclencher la prochaine vague de productivité", ont-ils déclaré dans un récent rapport. Et ils ne sont pas seuls. Par exemple, Goldman Sachs a déclaré qu’une nouvelle génération d’intelligence artificielle pourrait augmenter le PIB mondial de 7 %.
Que nous soyons ou non au sommet de la génération actuelle d’IA, il s’agit clairement d’un domaine qui continuera d’évoluer et de susciter des débats au sein de l’entreprise. Si les défis sont grands, les opportunités le sont aussi, surtout dans un monde avide d’innovation et d’efficacité. La bataille pour la domination des GPU n’est qu’un aperçu de ce récit qui se déroule, un prologue du futur chapitre de l’intelligence artificielle et de l’informatique.
Les références: