Combien de startups d’IA ont été condamnées à « mort » par la conférence de presse d’OpenAI ?

Source originale : Hedgehog Commune

Source de l’image : Généré par Unbounded AI

Lorsque le PDG d’OpenAI, Sam Altman, montera sur le podium, beaucoup de gens auront peut-être des visions de Steve Jobs en 2007 et rêveront du début de la dernière ère technologique.

Même Sam Altman lui-même ne s’attendait pas à ce qu’en seulement un an, OpenAI soit devenue l’une des plateformes d’intelligence artificielle les plus utilisées au monde par le seul bouche-à-oreille, et ChatGPT est également devenu le « roi » du domaine mondial de l’IA.

Au cours de l’année écoulée, environ 2 millions de développeurs ont développé sur la base de l’API (Application Programming Interface) d’OpenAI, les entreprises clientes d’OpenAI comprennent 92 % des 500 plus grandes entreprises du monde, et ChatGPT a attiré plus de 100 millions d’utilisateurs, qui sont actifs dans ce produit d’IA historique chaque semaine, pour beaucoup d’entre eux, ChtaGPT est devenu un assistant IA incontournable au travail et dans la vie.

C’est un fait indiscutable qu’OpenAI fait avancer le monde.

Le 7 novembre, à deux heures du matin, heure de Beijing, la conférence OpenAI DevDay a officiellement commencé. **C’est le premier jour des développeurs après la sortie de ChatGPT en novembre 2022, qui a fait exploser le boom mondial de l’IA, et c’est aussi l’une des conférences de presse les plus importantes après GPT-4, ce qui suffit à secouer le cercle technologique mondial. **

De nos jours, il y a de moins en moins d’entreprises qui peuvent enthousiasmer les gens, et même la conférence annuelle « Science and Technology Spring Festival Gala » Apple a commencé à décevoir, tout en soupirant « Apple a tiré », les adeptes projettent l’espoir de l’avenir sur ce parvenu technologique, « Wang Bang », « Crush » « New iPhone moment », dans le slogan frénétique, attendant avec impatience que GPT fasse à nouveau exploser tout le réseau.

Alors, la nouvelle singularité est-elle vraiment arrivée ? **

01 GPT-4 Turbo, pas incroyable, mais assez fort

Avant le début officiel de la conférence, de nombreuses personnes attendent le prochain « moment iPhone », en particulier les praticiens de l’IA. Mais leurs émotions sont également extrêmement complexes, avec des attentes et des craintes entremêlées, attendant avec impatience les nouvelles technologies et l’avenir infini apportés par les leaders de l’IA, et craignant d’être directement éliminés par la puissante force d’OpenAI.

Cette fois, cependant, OpenAI a pris un chemin inhabituel. Dans les nombreuses spéculations précédentes, beaucoup de gens ont prédit qu’OpenAI publierait une nouvelle application tueuse lors de cette conférence de développeurs, peut-être GPT-5, dont les performances peuvent tuer tous les produits de modélisation à grande échelle actuels en quelques secondes, et même tuer GPT-4.

Mais ce n’est pas le cas d’OpenAI. Le nouveau modèle de produit est destiné à venir, son nom s’appelle le refroidisseur GPT-4 Turbo, les principaux points de mise à jour sont en six aspects, à savoir : ** Longueur du contexte, méthode de contrôle, mise à jour du contenu des connaissances du modèle, entrée et sortie multimodales, personnalisation du modèle et limite de débit plus élevée, en plus de nouveaux contenus tels que le bouclier de droit d’auteur. **

Pour faire simple, il s’agit d’une mise à niveau complète de GPT-4. Le premier est l’augmentation de la longueur du contexte, qui permet aux utilisateurs d’avoir des conversations textuelles plus longues avec GPT-4 Turbo par rapport aux versions précédentes. Auparavant, la plus longue longueur de contexte que GPT pouvait atteindre était de 32k, et dans l’utilisation quotidienne, elle n’était que de 8k, et la sortie d’instructions et le dialogue approfondi étaient limités dans une certaine mesure, ce qui rendait difficile la réalisation d’une « conversation chaleureuse » avec GPT.

Cette fois, OpenAI a directement augmenté le plafond à 128 000 jetons, soit 16 fois la longueur initiale. **Pour être plus concret, il s’agit du volume de contenu d’un livre de 300 pages, imaginez qu’il ne coûte que quelques dizaines de dollars pour pouvoir discuter avec GPT-4 Turbo pendant une journée aussi longue que « 20 000 lieues sous les mers ». À partir de maintenant, ce ne sera plus un problème de laisser GPT aider à écrire des articles en ligne (au moins cela peut être fait en termes de longueur, que ce soit beau ou non est une autre affaire).

D’autre part, les changements se reflètent dans la mise au point des détails et le contrôle du modèle. Pour le dire simplement, grâce au JSON récemment publié et à d’autres modèles, vous pouvez mieux contrôler GPT, obtenir les réponses que vous voulez plus, et en même temps, vous pouvez appeler plus de fonctions utilisées, de sorte que les réponses et les réponses de GPT sont plus stables ; OpenAI fournira également plus de services de réglage fin des modèles, principalement pour les entreprises individuelles, en fournissant des services de personnalisation des modèles, vous pouvez profiter de performances plus élevées et de produits GPT plus professionnels, mais si vous voulez faire l’expérience de ces services, vous devez ajouter de l’argent.

Le reste n’est que des mises à niveau prévisibles. Inutile de dire que la mise à jour du contenu des connaissances externes a été critiquée depuis la sortie de ChatGPT. Par exemple, si vous lui posez des questions sur les événements qui se sont produits en 2022, il ne peut que vendre moe et vous dire qu’il date d’avant 2021. Cette fois, OpenAI a enfin augmenté le temps de mise à jour du contenu des connaissances de 2021 à avril 2023, et bien qu’il y ait encore un certain décalage, GPT-4 Turbo est enfin un peu « tendance ».

La multimodalité est inévitable. ** GPT-4 Turbo intègre la vision, la voix et d’autres produits de modélisation existants d’OpenAI, qui peuvent réaliser la forme du dessin et de la saisie vocale à l’avenir, et fournit même aux développeurs six choix vocaux prédéfinis, ce qui ne peut s’empêcher de me rappeler le récent populaire « Terminé ! Je suis entourée de belles femmes ! 》。

En ce qui concerne la limite de débit utilisée, OpenAI offre aux utilisateurs de GPT-4 une double expérience de « navigation », et si vous ne la respectez toujours pas, via votre propre compte API, vous pouvez payer pour demander l’augmentation de la limite de débit, afin que GPT puisse décoller davantage.

Mais pour de nombreux adeptes, les mises à jour n’ont toujours pas été à la hauteur des attentes, et GPT-4 est arrivé à une « nouvelle version du vaisseau », mais pas assez pour être incroyable. **

« En termes de longueur du contexte dont beaucoup de gens parlent cette fois-ci, en fait, qu’il s’agisse de concurrents Anthropic, Claude ou même du modèle domestique Baichuan, ils peuvent déjà atteindre des dizaines de milliers de mots ou même des centaines de milliers de mots d’entrée de contenu, et GPT a peu d’avantage dans la mise à niveau cette fois-ci. » Pan Xiang, praticien de l’IA et utilisateur de GPT, a déclaré à la Hedgehog Commune qu’à son avis, cette fois-ci, GPT-4 turbo n’est pas une surprise, mais estime qu’OpenAI fait quelque chose de conventionnel et de médiocre. « Il n’est pas surprenant que tous les développeurs de grands modèles travaillent sur ces fonctions de multimodalité, et ce que j’attends le plus, c’est l’intelligence du produit. »

Il existe de nombreux arguments similaires sur Internet. Auparavant, la mise à niveau de la version plus de GPT-4 a fait que beaucoup de gens ont qualifié GPT-4 de « stupide », et de nombreux utilisateurs ont placé leurs espoirs dans GPT-5, mais OpenAI a fourni GPT-4 Turbo. Les mises à niveau peuvent améliorer l’expérience utilisateur du produit dans une certaine mesure, mais la question de savoir si « l’intelligence » a été considérablement améliorée doit encore être vérifiée.

**OpenAI n’a pas mis à niveau l’intelligence de GPT à l’étape suivante cette fois-ci, mais a choisi de compenser les « lacunes », ou en d’autres termes, d’attirer plus d’utilisateurs grâce à des mises à niveau de l’expérience produit. ** Un exemple direct de cela est la décision d’OpenAI de réduire le prix du système d’API à tous les niveaux, GPT-4 Turbo triplant le prix d’entrée à un cent pour mille jetons et une réduction par deux du prix de sortie à trois cents pour 1 000 jetons. Sam Altman a déclaré lors de la conférence de presse que le taux global de GPT-4 Turbo est plus de 2,75 fois moins cher que celui de GPT-4.

Beaucoup de gens comparent OpenAI au prochain Apple, mais les deux ne sont pas tout à fait les mêmes lorsqu’il s’agit de réduire ou non les prix. L’IA est encore trop niche, OpenAI comprend l’importance d’élargir l’échelle des utilisateurs, et il doit réduire les prix sous la pression de brûler de l’argent, et le but de la première moitié de toute la conférence est également sur le point de sortir, Sam Altman et OpenAI sont suffisamment fascinants pour emprunter la voie inclusive, écrasant tous les opposants de manière violente :

En tant que premier produit modèle à grande échelle au monde, OpenAI a non seulement mis à niveau le produit de manière complète, mais le coût d’utilisation a été réduit, et même les problèmes de droits d’auteur rencontrés par les utilisateurs ont fait une garantie complète (bouclier de droit d’auteur), ** des milliers de mots ont convergé en une seule phrase, « Venez et devenez notre utilisateur ! » "。 **

02 Il vaut mieux apprendre aux gens à pêcher que de leur apprendre à pêcher

La création de produits inclusifs permet non seulement de vérifier les lois de mise à l’échelle d’OpenAI (avec l’augmentation de la taille du modèle et de l’échelle de calcul des données, les performances du modèle s’amélioreront également simultanément), mais aussi le comportement de l’augmentation de la part de marché. Plus d’action lors de la conférence de presse est plus un aperçu des ambitions d’OpenAI.

**En plus de la sortie de nouveaux modèles de produits, la sortie des API GPT et Assistants est encore plus excitante. Pour le dire simplement, OpenAI veut construire un énorme écosystème de modèles à grande échelle, à travers lequel vous pouvez obtenir tous les produits d’application d’IA que vous voulez, et devenir un développeur d’AI Agent (agent, agent intelligent) via le système d’API d’OpenAI.

Le premier est les GPT, une version personnalisée de ChatGPT créée à des fins spéciales, qui peut dériver une variété de GPT basés sur des produits GPT. En mai 2023, OpenAI a ouvert le système de plug-in des produits GPT et a lancé un certain nombre d’applications de modèles à grande échelle pour divers domaines verticaux et utilisations professionnelles, qui est le prédécesseur des GPT. Cette fois, OpenAI a choisi de séparer ces applications, et au lieu de les attacher au produit sous la forme de plug-ins, elles sont devenues des applications distinctes et les ont agrégées via le GPT Store.

**Par analogie, les GPT sont comme les applications à l’ère de l’Internet mobile, et GPT Store est l’App Store, mais ces applications sont toutes basées sur le grand modèle de langage d’OpenAI et sont les produits de l’ère de l’IA. **

À l’heure actuelle, GPT Store a mis un certain nombre d’applications sur les étagères, en plus des plug-ins qui existaient déjà auparavant, il a également lancé le modèle visuel officiel de R & D DALL· E. Game Time, qui peut aider à analyser les jeux de société et de cartes, et les memez de la génération Z, qui peuvent aider à comprendre les dernières tendances et les mèmes populaires de la génération Z, et plus d’une douzaine de robots agents. Lors de la conférence de presse, le personnel d’OpenAI a fait la démonstration de l’utilisation de Zapier, a organisé son emploi du temps personnel et a même communiqué en temps réel.

La meilleure partie est que tout le monde peut créer son propre GPT. Sur les lieux, Sam Altman a ouvert GPT Builder, a créé un GPT qui fournit des services de conseil aux fondateurs d’entreprise par le biais de quelques conversations simples, et a fait de ce GPT un « mentor entrepreneurial » professionnel en téléchargeant le contenu de son discours, et l’ensemble du processus n’a pas pris plus de trois minutes.

**Pas besoin d’écrire du code, pas besoin de construire une interface utilisateur complexe, seulement besoin de dialogue, de téléchargement de la base de connaissances et de la définition de certaines commandes d’action, et de développer un assistant intelligent en trois minutes, ce qui est un « fantasme » qui ne peut être réalisé qu’à l’ère de l’IA. **

Les utilisateurs peuvent non seulement utiliser le GPT développé par eux-mêmes à titre privé, mais également le fournir aux entreprises qui en ont besoin, ou le divulguer directement à d’autres utilisateurs via le GPT Store, et obtenir une part des bénéfices d’OpenAI. Les utilisateurs ne se contentent pas de dépenser de l’argent pour des produits, ils peuvent également gagner de l’argent grâce à GPT.

Pour les développeurs individuels, les applications qui peuvent être développées sont encore relativement simples, mais pour les équipes professionnelles de R&D et les entreprises, le problème des coûts a été résolu dans une certaine mesure.

L’API Assistants est un outil qui permet de « créer en un clic des applications GPT ». Dans le passé, le processus de développement d’un agent était très complexe, nécessitant une équipe professionnelle pour effectuer de nombreux travaux de construction fastidieux et complexes. Avec l’API Assistants, les développeurs peuvent créer un « assistant de développement » avec des instructions spécifiques, des connaissances supplémentaires et la possibilité de faire appel à divers modèles et outils, et de lui laisser les problèmes les plus complexes.

Dans le cas du code zéro, il vous suffit de saisir des instructions et de les affiner pour pouvoir créer une application d’IA de haute qualité, connue sous le nom d’agent. **

Pour le dire crûment, OpenAI encapsule le « processus de R&D » grâce à l’IA, en tapant avec les mains et même en créant des applications en quelques mots, ce qui est vraiment arrivé. À l’avenir, si l’API Assistants est ouverte à tous les utilisateurs, tout le monde pourra devenir chef de produit et l’IA sera le programmeur.

Du côté d’OpenAI et des développeurs, il s’agit sans aucun doute d’un acte d'« ouverture du modèle », qui profite à tous les utilisateurs, et la construction d’un écosystème d’applications d’IA basé sur OpenAI apportera sûrement une nouvelle prospérité. Mais pour de nombreux pairs, il s’agit sans aucun doute d’une « tuerie ».

Dès le mois d’octobre, lors de la réunion de partage des anciens élèves de YC, Sam Altman a mis en garde les entreprises dites « d’IA » contre ChatGPT, affirmant que les produits modèles d’OpenAI élargiront progressivement le domaine, et que ces entreprises s’éteindront inévitablement lorsque l’espace de vie deviendra de plus en plus limité.

La conférence de presse a confirmé qu’il ne s’agissait que du « ne dis-le pas de manière inattendue » de Sam Altman, GPT veut non seulement battre tout le monde en termes d’expérience utilisateur, mais érige également des barrières dans le domaine des applications verticales et des développeurs grâce aux API GPT et Assistants. **"Ceux qui apprennent de moi vivent, et ceux qui sont comme moi meurent » n’est plus vrai, car dans le cadre de l’offensive d’OpenAI, les concurrents doivent faire face à des « menaces de mort ». **

Certains adeptes ne comprennent pas les efforts d’OpenAI dans ces domaines et, à leur avis, de nombreuses mesures ne visent qu’à tirer parti du marché. « Aujourd’hui, de nombreuses actions d’OpenAI sont complètement hors de la logique commerciale, comme GPT Store, en plus d’être capable de construire un écosystème et de presser l’espace de vie des opposants, il n’a en fait pas besoin de faire un investissement aussi important. »

Lan Qi, un adepte dans le domaine de l’IA, estime qu’OpenAI devient progressivement une entreprise technologique traditionnelle et que la concurrence commerciale est devenue le moyen le plus important en plus de la recherche et du développement. « De nombreux anciens utilisateurs ne sont pas satisfaits des performances de GPT-4, et peut-être devraient-ils continuer à se concentrer sur la recherche et le développement intelligents de grands modèles de langage. Et il est évident que les produits de développement actuels ne supportent pas la recherche et le développement d’applications de haute qualité, et ne conduiront qu’à la prolifération d’un grand nombre d’applications de mauvaise qualité. "

Pour une telle licorne avec un avantage évident de premier arrivé, il peut être naturel de s’orienter vers l’échelle ou même le monopole, et la promotion de la mise en œuvre réelle de l’application est l’étape la plus importante. **

À l’heure actuelle, l’une des priorités de R&D d’OpenAI est de faire en sorte que l’IA continue d’atterrir, ce qui peut non seulement favoriser la réalisation de l’AGI (Intelligence Artificielle Générale) à grande échelle, mais aussi résoudre les vrais problèmes commerciaux. « Je peux donc comprendre, mais je veux toujours, inconsciemment, qu’ils aillent plus vite. »

03 Les problèmes d’OpenAI

Avant la sortie officielle de ChatGPT, OpenAI se déchaînait en effet sur une piste avec peu d’adversaires.

Lors de la réunion de partage des anciens élèves de YC en octobre, Sam Altman a partagé une petite histoire sur OpenAI, il a admis qu’au début de la création d’OpenAI, les grands modèles de langage n’étaient pas la principale direction de recherche de l’institution, et ils ont essayé la recherche dans de nombreux domaines tels que la robotique et l’IA de jeu, mais seul Alec Radford, un étudiant de premier cycle diplômé de la Franklin Olin School of Engineering, s’est toujours concentré sur la direction des grands modèles de langage.

Sept ans plus tard, le domaine de la recherche a finalement conduit à OpenAI et a changé l’orientation de la technologie dans le monde entier. La persévérance d’un étudiant de premier cycle, et enfin l’effet sur l’ensemble du domaine de la science et de la technologie, une histoire aussi merveilleuse a jeté les bases du développement d’OpenAI, une innovation scientifique et technologique aux attributs de tour d’ivoire, a toujours été considérée comme l’une des raisons du succès d’OpenAI. **

Bien qu’il bénéficie d’un généreux parrainage d’entrepreneurs tels que Musk, le plus grand point fort d’OpenAI est qu’ils ne sont pas désireux de participer au jeu du capital, mais choisissent de se consacrer à la recherche. Sam Altman lui-même croit fermement que l’objectif d’investir dans les startups n’est pas d’obtenir des rendements élevés, mais que la chose la plus importante qu’il veut est de promouvoir l’apparition d’innovations de rupture.

Mais lorsque ChatGPT est sorti, tout a changé rapidement. Les adversaires d’OpenAI sont devenus tout le monde, et la R&D n’est plus la seule chose à laquelle ils doivent penser.

Au cours de l’année écoulée, OpenAI a gagné de plus en plus et a été confronté à de plus en plus de choix. **

En tant qu’entreprise privée, sa valorisation a atteint 90 milliards de dollars, mais comme d’autres licornes, OpenAI est également confrontée aux problèmes d’exploitation les plus élémentaires.

GPT est la clé qui mène OpenAI au monde entier, tout en apportant le fardeau le plus lourd – la réalité – à l’entreprise. Le but ultime de la « tech upstart » n’est pas seulement dans le mot « upstart », comment stabiliser sa position et toujours se tenir au sommet de la Cité interdite est la vraie difficulté, après tout, ChatGPT n’a pas vraiment réussi à « tout tuer en quelques secondes ».

Par conséquent, OpenAI doit continuer à faire des choix, à promouvoir la productisation, à partager les coûts en augmentant l’échelle et à construire un écosystème d’applications d’IA solide, ce qui est le choix fait dans cette situation. **

D’autre part, les limites de la puissance de calcul, des puces et d’autres domaines poussent également constamment OpenAI à lancer une nouvelle mise en page. Bien qu’elle bénéficie déjà du soutien de Microsoft, OpenAI considère également l’investissement comme son importante « carte fermée ». À l’heure actuelle, OpenAI a utilisé 175 millions de dollars pour investir dans la prochaine génération de startups d’intelligence artificielle, et a également soutenu un grand nombre de startups technologiques par le biais d'« enjeux technologiques ».

Qu’il s’agisse d’organisations à but non lucratif, de licornes technologiques, d’entreprises de produits ou même de géants de la technologie, OpenAI est confronté à une transformation radicale en seulement un an. Ce qui est certain, c’est que ce n’est qu’en commercialisant le produit et en couvrant le coût élevé de la R&D et de la puissance de calcul que des investisseurs tels que Microsoft peuvent être assurés qu’ils ne seront pas à la traîne dans la concurrence avec des géants tels que Google et Meta.

Lors de l’événement, le PDG de Microsoft, Satya Nadella, était également présent, et Sam Altman a une fois de plus souligné la relation avec Microsoft : « Nous approfondissons notre partenariat avec Microsoft. »

Avant cela, les spéculations sur le partenariat entre les deux allaient bon train, et il y avait même des nouvelles selon lesquelles l’activité d’IA de Microsoft était menacée par OpenAI, et que la coopération pourrait être résiliée. Cette fois-ci, la plate-forme Microsoft CEO s’apparente davantage à une « démystification des rumeurs », **OpenAI a besoin de ce genre de conversation, afin que les utilisateurs et les investisseurs aient plus confiance en eux, même s’ils sont déjà très confiants. **

Heureusement, OpenAI est toujours le but ultime de la réalisation de l’AGI, et s’est toujours tenu à l’avant-garde du monde, c’est comme une épée tranchante, traçant constamment un chemin devant lui, et au contraire, divers adversaires ont également été coupés.

Après la conférence de presse, un mème est devenu viral, et un entrepreneur invité à participer à la journée des développeurs a carrément déclaré que Sam Altman avait ruiné sa startup de 3 millions de dollars et qu’il n’avait obtenu que 500 dollars de crédit d’API OpenAI (le cadeau d’OpenAI pour tous les développeurs sur la scène). Indépendamment de la concurrence entre les géants, les startups dans le domaine des applications de l’IA font sans aucun doute face à un cauchemar.

Sur X, un autre internaute a comparé la conférence de presse au fameux « mariage sanglant » de la série américaine « Game of Thrones », faisant référence à la « blague de l’enfer » d’OpenAI qui invite les développeurs sur les lieux pour assister à l’éclatement de leurs rêves entrepreneuriaux. Quelqu’un a transmis le tweet à GPT-4 Turbo, ce qui résumait exactement ce que le tweet signifiait.

Un commentaire est comme une fable : le mieux, c’est que celui qui devine cette énigme est la réponse à l’énigme. **

*Tous les noms ont été changés. *

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)