Le drame annuel de la Silicon Valley « La légende de la vérité » est terminé, mais les nouvelles connexes attirent toujours l’attention. Le 17, le sommet de l’APEC 2023 s’est terminé à San Francisco, au cours duquel Altman a laissé entendre qu’OpenAI travaillait sur un produit plus puissant que la dernière version de GPT-4 et dépassant de loin les attentes des gens, et il a été licencié le lendemain. Une autre lettre d’avertissement prétendument envoyée au conseil d’administration montre également qu’un bond majeur a été fait dans l’un des grands modèles d’OpenAI. Selon Reuters, citant des personnes familières avec la question, cette lettre est la première fois qu’elle est divulguée, et c’est aussi l’une des raisons importantes qui ont conduit à la décision finale du conseil d’administration d’OpenAI de retirer Altman.
La directrice technique d’OpenAI, Mira Murati, la première PDG par intérim, a mentionné le projet, appelé Q* (prononcé Q-Star), mercredi et a écrit une lettre au conseil d’administration avant que le « coup d’État » n’ait lieu. En conséquence, le conseil d’administration est devenu suspicieux et a cru qu’Altman allait de l’avant avec un projet potentiellement menaçant sans le conseil d’administration. Dans le même temps, certains chercheurs internes pensent que les progrès d’OpenaAI sur Q* deviendront une percée importante pour AGI, qui est plus proche de l’objectif que la dernière version de GPT-4. Cependant, peu de temps après, le cofondateur de TradingStrategy.ai, Mick Otama, a déclaré que la « percée majeure » avait été falsifiée par des initiés d’OpenAI.
En plus de la lettre de Mira, un autre événement qui corrobore le projet Q* a été le discours d’Altman lors d’une réunion de l’APEC. Il a laissé entendre qu’OpenAI a développé quelque chose de plus puissant et d’inimaginable que GPT-4, dépassant de loin les attentes. « Il y aura un bond en avant dans les capacités du grand modèle auquel personne ne s’attendait, et contrairement à ce que les gens attendaient, le saut est incroyable. Le changement technologique qui s’opère actuellement va révolutionner notre mode de vie, la structure de notre économie et de notre société, et toutes les autres contraintes possibles... Cela a été fait quatre fois dans l’histoire d’OpenAI, la plus récente ayant eu lieu au cours des dernières semaines. Ce fut un privilège dans ma carrière d’être là pour lever le voile de l’ignorance et explorer les frontières de l’inconnu. Il a été expulsé par le conseil d’administration d’OpenAI le lendemain de son discours, et il est difficile de dire qu’il n’y a aucun lien entre les deux événements. Certaines personnes diront peut-être qu’Altman a divulgué ses propres secrets, mais l’affirmation selon laquelle le conseil d’administration d’OpenAI n’est « pas assez honnête » signifie évidemment qu’Altman agit contre le yin et fait la promotion du projet derrière le conseil d’administration. Bien qu’il semble maintenant que « pas assez honnête » ressemble plus à un péché de vouloir en rajouter.
Un porte-parole d’OpenAI a déclaré que le message, envoyé par le directeur technique Mira, rappelait aux employés de faire attention à leur formulation lorsqu’ils étaient confrontés à la couverture médiatique, mais qu’il n’était pas contraignant quant à son exactitude. Une autre source a souligné que dans la vision interne d’OpenAI, l’IAG peut être définie comme « un système autonome qui surpasse les humains dans les tâches les plus rentables sur le plan économique ».
En raison de l’énorme puissance de calcul, le nouveau grand modèle peut résoudre certains problèmes mathématiques. Bien qu’il ne s’agisse que d’un problème mathématique au niveau de l’école primaire, les chercheurs sont très optimistes quant à l’avenir de Q* grâce à un tel test. Dans la lettre adressée au conseil d’administration, les chercheurs ont également signalé la force et les dangers potentiels de l’IA, mais n’ont pas précisé les problèmes de sécurité exacts mentionnés dans la lettre, selon des initiés. Les chercheurs ont également signalé le travail d’une équipe appelée « AI Scientists », qui a été confirmé par plusieurs sources.
Certains employés d’OpenAI pensent que les remarques d’Altman devraient être une référence à certaines des recherches innovantes antérieures de l’entreprise qui leur ont permis de développer des modèles GPT de plus en plus puissants. **Les travaux, menés par l’équipe de la scientifique en chef Ireya, n’ont jamais été signalés auparavant et suscitent l’inquiétude de certains employés. Ils sont préoccupés par le fait que l’entreprise n’a pas actuellement mis en place les mesures de protection adéquates pour s’assurer que cette technologie de pointe peut être commercialisée. Dans les mois qui ont suivi, les chercheurs principaux d’OpenAI ont utilisé l’innovation pour construire des systèmes qui résolvent des problèmes mathématiques de base.
Selon The Information, Q* est en fait une étape technologique importante pour deux chercheurs d’OpenAI, Jager et Simon, qui ont utilisé le travail d’Ilya pour construire un grand modèle qu’il n’avait jamais vu auparavant. Quiconque utilise régulièrement de grands modèles sait que, bien que les grands modèles soient généralement éloquents, les problèmes mathématiques ont toujours été une tâche difficile. En juin, GPT-4 a été en mesure de répondre à cinq questions mathématiques de l’examen d’entrée à l’université avec des modèles traditionnels dans le pays et à l’étranger, en particulier en comparant le « loin devant » lors de la conférence de presse, mais en fin de compte, c’était le résultat des dix mauvaises questions.
Des démonstrations de Q * ont circulé au sein d’OpenAI ces dernières semaines, et le rythme rapide de développement de l’IA elle-même a souvent laissé tomber les chercheurs en sécurité. Non seulement cela, mais ces percées dans Q permettent également à OpenAI de ne plus être limité par des données insuffisantes de qualité et de quantité lors de l’entraînement de nouveaux grands modèles, ce qui est le principal obstacle qui afflige les développeurs du monde entier pour surmonter la prochaine génération de grands modèles**.
En tant que scientifique en chef d’OpenAI, Ilya travaille depuis des années sur la façon de faire en sorte que GPT-4 résolve des tâches impliquant le raisonnement, telles que des problèmes mathématiques ou scientifiques. Avant de rejoindre OpenAI, Ilya, qui était encore chez Google DeepMind, a travaillé dans ce sens pendant de nombreuses années. En 2021, il a lancé un projet appelé GPT-0, qui est un hommage à son ancien club AlphaGo Zero, qui est la dernière version d’Alpha Dog. Non seulement Go, mais il peut aussi jouer aux échecs et au shogi. À l’époque, l’équipe de DeepMind supposait que tant que les grands modèles disposaient de suffisamment de temps et de puissance de calcul, ils seraient un jour en mesure de réaliser de nouvelles percées académiques. En particulier pour les capacités mathématiques et de raisonnement des grands modèles actuels qui doivent être améliorés de toute urgence, il pourrait y avoir une grande amélioration à l’avenir**. Peu de temps après, Ilya a rejoint OpenAI à l’instigation de Musk.
Bien que « The True Biography » ait également pris fin après le retour d’Altman au poste de PDG hier, les contradictions entre les dirigeants d’OpenAI ne semblent toujours pas avoir été éliminées, et elles pourraient continuer pendant longtemps. La raison principale en est que la tension au sein d’OpenAI sur l’avancement des travaux ne s’est pas apaisée. Ilya elle-même est connue pour son intelligence et son intégrité, ce que même Musk loue, et a probablement encore des réserves sur la technologie. Cet été, il a réuni une équipe d’alignement pour limiter la menace que les systèmes d’IA pourraient représenter pour l’humanité.
De l’avis de l’équipe d’alignement dirigée par Ierya, bien que la super-IA soit encore loin, elle pourrait être possible au cours de la prochaine décennie. De plus, après le licenciement d’Altman la semaine dernière, plusieurs personnes ont rapidement démissionné. Et après le retour d’Altman hier, ces personnes sont également retournées à OpenAI. Le président et cofondateur d’OpenAI, Brockman, soutient également la technologie et s’engage à l’intégrer dans de nouveaux produits. Lui et Altman sont également très ferrugineux, et « écrire du code ce soir » est exactement ce qui a été dit hier.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le nouveau grand modèle d’OpenAI : de nouvelles capacités, voire se mettre en danger
Le drame annuel de la Silicon Valley « La légende de la vérité » est terminé, mais les nouvelles connexes attirent toujours l’attention. Le 17, le sommet de l’APEC 2023 s’est terminé à San Francisco, au cours duquel Altman a laissé entendre qu’OpenAI travaillait sur un produit plus puissant que la dernière version de GPT-4 et dépassant de loin les attentes des gens, et il a été licencié le lendemain. Une autre lettre d’avertissement prétendument envoyée au conseil d’administration montre également qu’un bond majeur a été fait dans l’un des grands modèles d’OpenAI. Selon Reuters, citant des personnes familières avec la question, cette lettre est la première fois qu’elle est divulguée, et c’est aussi l’une des raisons importantes qui ont conduit à la décision finale du conseil d’administration d’OpenAI de retirer Altman.
La directrice technique d’OpenAI, Mira Murati, la première PDG par intérim, a mentionné le projet, appelé Q* (prononcé Q-Star), mercredi et a écrit une lettre au conseil d’administration avant que le « coup d’État » n’ait lieu. En conséquence, le conseil d’administration est devenu suspicieux et a cru qu’Altman allait de l’avant avec un projet potentiellement menaçant sans le conseil d’administration. Dans le même temps, certains chercheurs internes pensent que les progrès d’OpenaAI sur Q* deviendront une percée importante pour AGI, qui est plus proche de l’objectif que la dernière version de GPT-4. Cependant, peu de temps après, le cofondateur de TradingStrategy.ai, Mick Otama, a déclaré que la « percée majeure » avait été falsifiée par des initiés d’OpenAI.
Un porte-parole d’OpenAI a déclaré que le message, envoyé par le directeur technique Mira, rappelait aux employés de faire attention à leur formulation lorsqu’ils étaient confrontés à la couverture médiatique, mais qu’il n’était pas contraignant quant à son exactitude. Une autre source a souligné que dans la vision interne d’OpenAI, l’IAG peut être définie comme « un système autonome qui surpasse les humains dans les tâches les plus rentables sur le plan économique ».
Certains employés d’OpenAI pensent que les remarques d’Altman devraient être une référence à certaines des recherches innovantes antérieures de l’entreprise qui leur ont permis de développer des modèles GPT de plus en plus puissants. **Les travaux, menés par l’équipe de la scientifique en chef Ireya, n’ont jamais été signalés auparavant et suscitent l’inquiétude de certains employés. Ils sont préoccupés par le fait que l’entreprise n’a pas actuellement mis en place les mesures de protection adéquates pour s’assurer que cette technologie de pointe peut être commercialisée. Dans les mois qui ont suivi, les chercheurs principaux d’OpenAI ont utilisé l’innovation pour construire des systèmes qui résolvent des problèmes mathématiques de base.
Selon The Information, Q* est en fait une étape technologique importante pour deux chercheurs d’OpenAI, Jager et Simon, qui ont utilisé le travail d’Ilya pour construire un grand modèle qu’il n’avait jamais vu auparavant. Quiconque utilise régulièrement de grands modèles sait que, bien que les grands modèles soient généralement éloquents, les problèmes mathématiques ont toujours été une tâche difficile. En juin, GPT-4 a été en mesure de répondre à cinq questions mathématiques de l’examen d’entrée à l’université avec des modèles traditionnels dans le pays et à l’étranger, en particulier en comparant le « loin devant » lors de la conférence de presse, mais en fin de compte, c’était le résultat des dix mauvaises questions.
En tant que scientifique en chef d’OpenAI, Ilya travaille depuis des années sur la façon de faire en sorte que GPT-4 résolve des tâches impliquant le raisonnement, telles que des problèmes mathématiques ou scientifiques. Avant de rejoindre OpenAI, Ilya, qui était encore chez Google DeepMind, a travaillé dans ce sens pendant de nombreuses années. En 2021, il a lancé un projet appelé GPT-0, qui est un hommage à son ancien club AlphaGo Zero, qui est la dernière version d’Alpha Dog. Non seulement Go, mais il peut aussi jouer aux échecs et au shogi. À l’époque, l’équipe de DeepMind supposait que tant que les grands modèles disposaient de suffisamment de temps et de puissance de calcul, ils seraient un jour en mesure de réaliser de nouvelles percées académiques. En particulier pour les capacités mathématiques et de raisonnement des grands modèles actuels qui doivent être améliorés de toute urgence, il pourrait y avoir une grande amélioration à l’avenir**. Peu de temps après, Ilya a rejoint OpenAI à l’instigation de Musk.
De l’avis de l’équipe d’alignement dirigée par Ierya, bien que la super-IA soit encore loin, elle pourrait être possible au cours de la prochaine décennie. De plus, après le licenciement d’Altman la semaine dernière, plusieurs personnes ont rapidement démissionné. Et après le retour d’Altman hier, ces personnes sont également retournées à OpenAI. Le président et cofondateur d’OpenAI, Brockman, soutient également la technologie et s’engage à l’intégrer dans de nouveaux produits. Lui et Altman sont également très ferrugineux, et « écrire du code ce soir » est exactement ce qui a été dit hier.