Fonte da imagem: Gerada pela ferramenta Unbounded AI
Como o ChatGPT desencadeou uma mania global, o modelo de IA por trás dele surgiu repentinamente. Todos querem saber quais são as dimensões e padrões para avaliar o nível de um modelo grande?
O lançamento do ChatGPT nos permite ver a diferença entre a China e os Estados Unidos no AIGC. Então, qual é o status atual de desenvolvimento do grande modelo da China? Que oportunidades e desafios o desenvolvimento de modelos em larga escala da China enfrentará no futuro?
Atualmente, estamos em um período crítico para o desenvolvimento da inteligência artificial geral. Diante da tendência de desenvolvimento de pesquisas independentes em grandes modelos por várias instituições, como melhorar a eficiência do poder de computação e evitar efetivamente a duplicação de baixo nível?
Algumas pessoas na indústria temem que a IA destrua os seres humanos. Essa preocupação é infundada? Como podemos evitar problemas antes que eles aconteçam e perceber os resultados previsíveis e o comportamento controlável da IA?
Com várias perguntas sobre o AIGC, o **Tencent Research Institute entrevistou exclusivamente Wu Hequan, um acadêmico da Academia Chinesa de Engenharia e um especialista autorizado no campo das comunicações em meu país. **
【Entrevistador】
Niu Fulian Pesquisador Sênior, Tencent Research Institute
Wu Chunling Pesquisador Sênior no Tencent Research Institute
Wang Qiang Especialista Sênior do Tencent Research Institute
(doravante referido como T)
A escala total do poder de computação existente na China em comparação com os Estados Unidos: há uma lacuna, mas não grande
**T: Algumas pessoas dizem que o desenvolvimento de modelos de grande escala na China está 1-2 anos atrás dos países estrangeiros. O que você acha do desenvolvimento atual dos modelos de grande escala da China? **
**Wu Hequan: **A China começou mais tarde que os Estados Unidos no desenvolvimento de modelos de grande escala. Após o lançamento do ChatGPT, muitas unidades domésticas expressaram que estão desenvolvendo modelos generativos de grande escala. No momento, existem apenas alguns empresas como Microsoft e Google nos Estados Unidos. Em comparação com a pesquisa de modelos em grande escala, meu país tem mais unidades que desenvolvem modelos em grande escala do que os Estados Unidos, mas o grande número de sujeitos de pesquisa não significa que a China tenha um alto nível de pesquisa e desenvolvimento em modelos de grande escala. Diz-se que o número de parâmetros de um grande modelo nacional chega a 1,75 trilhão, superando o GPT-4, mas não há relatos de sua aplicação. **Embora algumas empresas chinesas tenham afirmado lançar chatbots semelhantes ao ChatGPT, atualmente eles não são tão bons quanto o ChatGPT em termos de suporte multilíngue, e ainda há uma lacuna em termos de velocidade de resposta em termos de recursos de diálogo em chinês. **
**Só percebemos o ChatGPT agora, que visa tarefas generativas e principalmente conclui a geração de linguagem, como bate-papo e escrita. O modelo BERT do Google presta mais atenção ao julgamento e à tomada de decisões, enfatizando a compreensão da linguagem, como resposta a perguntas e extração de relacionamento semântico. tarefa, a tecnologia do modelo BERT também merece nossa atenção. **A avaliação do nível de modelos de grande escala deve ser multidimensional, abrangência, racionalidade, facilidade de uso, velocidade de resposta, custo, eficiência energética, etc. **De um modo geral, a lacuna entre o desenvolvimento de modelos de grande escala no meu país e em países estrangeiros é de 1 a 2 anos. A base ainda não está clara e não faz sentido tirar essa conclusão agora. **
As empresas chinesas têm vantagens naturais sobre as empresas estrangeiras na obtenção do corpus chinês e na compreensão da cultura chinesa **A China possui as categorias de manufatura mais completas e possui condições favoráveis para o treinamento de AIGC para indústrias reais. Em termos de poder de computação, a China já tem uma boa base. **De acordo com o relatório da OpenAI, o poder de computação necessário para treinar o modelo GPT3 é de até 3,64EFlops/dia, o que equivale a 3-4 Pengcheng Cloud Brain II (Pengcheng Cloud Brain II é 1Eflops, ou seja, dezenas de bilhões de cálculos de ponto flutuante por segundo). **De acordo com os dados do final de 2022, os Estados Unidos respondem por 36% do poder de computação global e a China por 31%. Entre eles, a China é significativamente superior aos Estados Unidos (de acordo com os dados do final de 2021, a escala de computação inteligente nos Estados Unidos representa 15% da escala total de computação inteligente global e a China responde por 26%). meu país não é apenas uma grande empresa de Internet com considerável poder de computação, mas também laboratórios nacionais e laboratórios apoiados por alguns governos municipais também possuem recursos de poder de computação em grande escala.Pode-se dizer que a China também pode alcançar o suporte de poder de computação necessário para treinar grandes modelos. **Entende-se que o Pengcheng Lab está projetando o Pengcheng Cloud Brain III, que tem um poder de computação de 16EFlops, que é três vezes maior que o do GPT-3. Espera-se que custe 6 bilhões de yuans e continue a fornecer computação poderosa poder para treinamento de inteligência artificial. suporte forte.
Pesquisa e desenvolvimento da China AIGC: é preciso reconhecer a lacuna, focar nos desafios e inovar
**T: Além de nossa boa base em poder de computação, que desafios você acha que existem na construção de um modelo em grande escala na China? **
Wu Hequan: Somente o poder de computação não é suficiente. Ainda enfrentamos muitos desafios nos seguintes aspectos:
**Em primeiro lugar, a base do grande modelo é a estrutura de aprendizado profundo. A Tensorflow e a PyTorch nos Estados Unidos cultivam a ecologia da estrutura de aprendizado profundo há muitos anos. Embora as empresas domésticas também tenham desenvolvido independentemente a estrutura de aprendizado profundo, o teste de mercado não é suficiente, e a ecologia ainda precisa ser construída.
**Em segundo lugar, a extensão do AIGC para aplicações industriais pode exigir mais de um modelo grande. Como integrar com eficiência vários modelos grandes apresenta desafios na padronização e na fusão de dados.
Terceiro, modelos grandes requerem treinamento massivo de dados. A China tem milhares de anos de civilização, mas a maioria dos ricos depósitos culturais não foi digitalizada. O chinês é menos de 0,1% do corpus usado no treinamento do ChatGPT. Embora as empresas de Internet do meu país tenham uma grande quantidade de dados de rede, como comércio eletrônico, redes sociais e pesquisa, os tipos de dados não são abrangentes o suficiente e a credibilidade do conhecimento on-line não é estritamente garantida. O corpus chinês que pode ser usado para treinamento ainda precisa de muito trabalho de mineração.
Quarto, o chip GPU do qual o treinamento de modelo grande depende é representado pelo chip A100 da Nvidia, mas o chip foi impedido de ser exportado para a China pelos Estados Unidos, e o desempenho das GPUs domésticas precisa de mais testes. Há ainda uma lacuna na eficiência.
Quinto, não há poucos técnicos envolvidos em pesquisa de IA na China, mas ainda há uma escassez de talentos com recursos de design de arquitetura e prompters de treinamento de dados AIGC. Antes do surgimento do ChatGPT, algumas pessoas pensavam que o número de documentos e patentes na China em IA era comparável ao dos Estados Unidos. **O lançamento do ChatGPT nos fez ver a diferença entre a China e os Estados Unidos no AIGC. Agora precisamos entender claramente e prestar atenção aos desafios que enfrentamos, fazer inovações reais, transformar desafios em oportunidades e dar a contribuição da China para a nova rodada de IA. **
Recomenda-se abrir a plataforma de poder de computação nacional para suportar vários treinamentos de modelos em grande escala
**T: O ChatGPT é, sem dúvida, uma grande inovação. Como a China deve incentivar inovações como essa no futuro e quais aspectos do trabalho ela deve fazer? **
**Wu Hequan: **O desenvolvimento da inteligência artificial de discriminativa para generativa é uma inovação marcante e começou a entrar no caminho da inteligência artificial geral. Do GPT-3 ao GPT-4, evoluiu da entrada de texto para a entrada gráfica parcial, ou seja, aumentou a capacidade de entender gráficos. Com base nisso, não é longe implementar uma arquitetura de aprendizado profundo e um modelo geral para dar suporte à entrada de dados multimodais. Sim, mas a tarefa de generalização de modelos grandes e o refinamento da invocação sob demanda de modelos grandes ainda exigem maior investimento e inovação. O aprendizado não rotulado e não supervisionado de dados para gráficos e vídeos é muito mais difícil do que a linguagem e entrada de texto.
Estamos agora em um período crítico de desenvolvimento em direção à inteligência artificial geral.Para o nosso país, esta é uma rara oportunidade de salto de desenvolvimento e também um grande desafio. Poder de computação, modelos e dados são as condições necessárias para o sucesso do ChatGPT e também serão os fatores essenciais para o sucesso da inteligência artificial geral.Além disso, a ecologia, mecanismo e talentos mais inovadores são a chave. A China é comparável aos Estados Unidos em termos de escala total de poder de computação, mas a coordenação do poder de computação em centros de dados ainda enfrenta desafios institucionais, e a taxa de utilização e a eficiência do poder de computação em muitos centros de computação inteligentes não são altas. **Muitas unidades pesquisam grandes modelos de forma independente, sendo inevitável a repetição em baixo nível **Recomenda-se a formação de força conjunta com razoável divisão do trabalho sob a coordenação dos planos nacionais de ciência e tecnologia e industrial. Recomenda-se abrir a plataforma de poder de computação do laboratório nacional para suportar vários treinamentos de modelos em grande escala. ** Por exemplo, o poder de computação do Pengcheng Cloud Brain atingiu 3/4 da capacidade total, que pode suportar a escala de 200 bilhões de parâmetros comparáveis ao GPT-3. Modelo grande de idioma chinês pré-treinado de código aberto. **Ao mesmo tempo, é recomendável formar uma aliança de poder de computação para concentrar os recursos de poder de computação das GPUs de ponta existentes e fornecer o poder de computação necessário para treinamento de dados de modelo em larga escala. **Atualmente, a "China Computing Power Network (C2NET)" construída principalmente pelo Pengcheng Laboratory foi conectada a mais de 20 computadores inteligentes de grande escala, supercomputação e centros de dados, e o poder de computação heterogêneo agregado atingiu 3EFlops. eles, o poder de computação AI auto-desenvolvido excede 1.8EFlops. Além disso, a aplicação de chatbots é apenas uma forma intuitiva de treinar e testar o AIGC, mas o chat não é apenas necessário. É necessário desenvolver vários modelos para aplicações industriais com base em grandes modelos, de modo a tornar os grandes modelos eficazes na indústria o mais rápido possível Cultive mais talentos na aplicação de todas as esferas da vida. **
Grandes aplicativos da indústria de modelos exigem talentos abrangentes que entendam tanto a tecnologia da indústria quanto o treinamento em IA
**T: Até agora vimos a aplicação do ChatGPT em alguns campos, como chatbots, geração de texto e reconhecimento de fala. Haverá algumas oportunidades de aplicação na indústria física e no campo no futuro? Quais os obstáculos ainda enfrentados na aplicação de grandes modelos na indústria física? **
**Wu Hequan: **Com base nos chatbots ChatGPT existentes, depois de complementar o treinamento relevante da indústria e do conhecimento empresarial, eles podem realizar um trabalho inteligente de atendimento ao cliente nas empresas, substituindo trabalhadores para fornecer aos clientes serviços de pré-venda e pós-venda. No processo de design e fabricação que requer programação de software, o ChatGPT pode substituir programadores para concluir tarefas de programação e verificar bugs de software. Pode realizar a coleta, tradução e organização de documentos e materiais necessários no processo de design e produção. Após o treinamento profissional, modelos grandes do tipo AIGC podem ser usados para projetar software EDA, como software de ferramenta para projeto de IC. Em empresas de animação e jogos, os robôs treinados com base em grandes modelos do tipo AIGC podem escrever scripts, criar scripts de jogos e programá-los de acordo com prompts e concluir a renderização de animações 3D.
No entanto, o ChatGPT não é um modelo geral e é difícil aplicá-lo diretamente ao processo de fabricação da indústria real. No entanto, ele pode ser baseado no princípio do treinamento ChatGPT e usar o gráfico de conhecimento de indústrias e empresas para in- treinamento aprofundado. É possível desenvolver um grande modelo dedicado a empresas para concluir isso. O desafio do primeiro trabalho é precisar de talentos que não estejam apenas familiarizados com o processo de upload corporativo e a tecnologia de link principal, mas também dominem o treinamento de big data em inteligência artificial tecnologia.
Do foco nos resultados ao foco no processo, a integração da tecnologia e do sistema jurídico domina o processo de raciocínio do AIGC
**T:ChatGPT também cometerá vários erros, e também trará alguns problemas éticos, de segurança e privacidade.Ao aplicar modelos grandes no futuro, como podemos criar um ambiente inclusivo e seguro e de desenvolvimento? **
**Wu Hequan:**O surgimento da IA generativa levou a atenção da sociedade para a inteligência artificial a um nível sem precedentes. Ao desencadear um aumento na pesquisa de IA nos círculos científicos e industriais, muitos especialistas temem que a inteligência artificial destrua os seres humanos e chamada para interromper a pesquisa sobre GPT-5. As preocupações de alguns especialistas não são infundadas, porque o processo de pensamento dos robôs ChatGPT é atualmente opaco. Os humanos criaram o ChatGPT, mas atualmente os humanos não compreendem totalmente seu processo de raciocínio. O incognoscível será incontrolável e há riscos de anormalidade do robô , anomia ética e comportamento fora de controle.
**A solução não é parar a pesquisa em inteligência artificial, mas focar na pesquisa AIGC em vez de focar em resultados, projetar e liderar seu processo de raciocínio, para que os resultados possam ser esperados e os comportamentos possam ser controlados. **A promoção e aplicação do modelo grande no futuro requer uma avaliação segura e credível por uma instituição qualificada, e o processo de raciocínio do modelo grande é rastreável após inspeção. Ao mesmo tempo, é necessário estabelecer leis e regulamentos de governança de IA correspondentes para evitar o treinamento enganoso do AIGC, responsabilizar os participantes do treinamento do AIGC e punir severamente os crimes de cumplicidade e cumplicidade. Através da complementaridade da tecnologia e do sistema jurídico, a inteligência artificial tornou-se um assistente verdadeiramente leal aos seres humanos.
Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
Entrevista Tengyan | Acadêmico Wu Hequan: As vantagens, desafios e caminhos de inovação do desenvolvimento de modelos em larga escala da China
Como o ChatGPT desencadeou uma mania global, o modelo de IA por trás dele surgiu repentinamente. Todos querem saber quais são as dimensões e padrões para avaliar o nível de um modelo grande?
O lançamento do ChatGPT nos permite ver a diferença entre a China e os Estados Unidos no AIGC. Então, qual é o status atual de desenvolvimento do grande modelo da China? Que oportunidades e desafios o desenvolvimento de modelos em larga escala da China enfrentará no futuro?
Atualmente, estamos em um período crítico para o desenvolvimento da inteligência artificial geral. Diante da tendência de desenvolvimento de pesquisas independentes em grandes modelos por várias instituições, como melhorar a eficiência do poder de computação e evitar efetivamente a duplicação de baixo nível?
Algumas pessoas na indústria temem que a IA destrua os seres humanos. Essa preocupação é infundada? Como podemos evitar problemas antes que eles aconteçam e perceber os resultados previsíveis e o comportamento controlável da IA?
Com várias perguntas sobre o AIGC, o **Tencent Research Institute entrevistou exclusivamente Wu Hequan, um acadêmico da Academia Chinesa de Engenharia e um especialista autorizado no campo das comunicações em meu país. **
【Entrevistador】
Niu Fulian Pesquisador Sênior, Tencent Research Institute
Wu Chunling Pesquisador Sênior no Tencent Research Institute
Wang Qiang Especialista Sênior do Tencent Research Institute
(doravante referido como T)
A escala total do poder de computação existente na China em comparação com os Estados Unidos: há uma lacuna, mas não grande
**T: Algumas pessoas dizem que o desenvolvimento de modelos de grande escala na China está 1-2 anos atrás dos países estrangeiros. O que você acha do desenvolvimento atual dos modelos de grande escala da China? **
**Wu Hequan: **A China começou mais tarde que os Estados Unidos no desenvolvimento de modelos de grande escala. Após o lançamento do ChatGPT, muitas unidades domésticas expressaram que estão desenvolvendo modelos generativos de grande escala. No momento, existem apenas alguns empresas como Microsoft e Google nos Estados Unidos. Em comparação com a pesquisa de modelos em grande escala, meu país tem mais unidades que desenvolvem modelos em grande escala do que os Estados Unidos, mas o grande número de sujeitos de pesquisa não significa que a China tenha um alto nível de pesquisa e desenvolvimento em modelos de grande escala. Diz-se que o número de parâmetros de um grande modelo nacional chega a 1,75 trilhão, superando o GPT-4, mas não há relatos de sua aplicação. **Embora algumas empresas chinesas tenham afirmado lançar chatbots semelhantes ao ChatGPT, atualmente eles não são tão bons quanto o ChatGPT em termos de suporte multilíngue, e ainda há uma lacuna em termos de velocidade de resposta em termos de recursos de diálogo em chinês. **
**Só percebemos o ChatGPT agora, que visa tarefas generativas e principalmente conclui a geração de linguagem, como bate-papo e escrita. O modelo BERT do Google presta mais atenção ao julgamento e à tomada de decisões, enfatizando a compreensão da linguagem, como resposta a perguntas e extração de relacionamento semântico. tarefa, a tecnologia do modelo BERT também merece nossa atenção. **A avaliação do nível de modelos de grande escala deve ser multidimensional, abrangência, racionalidade, facilidade de uso, velocidade de resposta, custo, eficiência energética, etc. **De um modo geral, a lacuna entre o desenvolvimento de modelos de grande escala no meu país e em países estrangeiros é de 1 a 2 anos. A base ainda não está clara e não faz sentido tirar essa conclusão agora. **
As empresas chinesas têm vantagens naturais sobre as empresas estrangeiras na obtenção do corpus chinês e na compreensão da cultura chinesa **A China possui as categorias de manufatura mais completas e possui condições favoráveis para o treinamento de AIGC para indústrias reais. Em termos de poder de computação, a China já tem uma boa base. **De acordo com o relatório da OpenAI, o poder de computação necessário para treinar o modelo GPT3 é de até 3,64EFlops/dia, o que equivale a 3-4 Pengcheng Cloud Brain II (Pengcheng Cloud Brain II é 1Eflops, ou seja, dezenas de bilhões de cálculos de ponto flutuante por segundo). **De acordo com os dados do final de 2022, os Estados Unidos respondem por 36% do poder de computação global e a China por 31%. Entre eles, a China é significativamente superior aos Estados Unidos (de acordo com os dados do final de 2021, a escala de computação inteligente nos Estados Unidos representa 15% da escala total de computação inteligente global e a China responde por 26%). meu país não é apenas uma grande empresa de Internet com considerável poder de computação, mas também laboratórios nacionais e laboratórios apoiados por alguns governos municipais também possuem recursos de poder de computação em grande escala.Pode-se dizer que a China também pode alcançar o suporte de poder de computação necessário para treinar grandes modelos. **Entende-se que o Pengcheng Lab está projetando o Pengcheng Cloud Brain III, que tem um poder de computação de 16EFlops, que é três vezes maior que o do GPT-3. Espera-se que custe 6 bilhões de yuans e continue a fornecer computação poderosa poder para treinamento de inteligência artificial. suporte forte.
Pesquisa e desenvolvimento da China AIGC: é preciso reconhecer a lacuna, focar nos desafios e inovar
**T: Além de nossa boa base em poder de computação, que desafios você acha que existem na construção de um modelo em grande escala na China? **
Wu Hequan: Somente o poder de computação não é suficiente. Ainda enfrentamos muitos desafios nos seguintes aspectos:
**Em primeiro lugar, a base do grande modelo é a estrutura de aprendizado profundo. A Tensorflow e a PyTorch nos Estados Unidos cultivam a ecologia da estrutura de aprendizado profundo há muitos anos. Embora as empresas domésticas também tenham desenvolvido independentemente a estrutura de aprendizado profundo, o teste de mercado não é suficiente, e a ecologia ainda precisa ser construída.
**Em segundo lugar, a extensão do AIGC para aplicações industriais pode exigir mais de um modelo grande. Como integrar com eficiência vários modelos grandes apresenta desafios na padronização e na fusão de dados.
Terceiro, modelos grandes requerem treinamento massivo de dados. A China tem milhares de anos de civilização, mas a maioria dos ricos depósitos culturais não foi digitalizada. O chinês é menos de 0,1% do corpus usado no treinamento do ChatGPT. Embora as empresas de Internet do meu país tenham uma grande quantidade de dados de rede, como comércio eletrônico, redes sociais e pesquisa, os tipos de dados não são abrangentes o suficiente e a credibilidade do conhecimento on-line não é estritamente garantida. O corpus chinês que pode ser usado para treinamento ainda precisa de muito trabalho de mineração.
Quarto, o chip GPU do qual o treinamento de modelo grande depende é representado pelo chip A100 da Nvidia, mas o chip foi impedido de ser exportado para a China pelos Estados Unidos, e o desempenho das GPUs domésticas precisa de mais testes. Há ainda uma lacuna na eficiência.
Quinto, não há poucos técnicos envolvidos em pesquisa de IA na China, mas ainda há uma escassez de talentos com recursos de design de arquitetura e prompters de treinamento de dados AIGC. Antes do surgimento do ChatGPT, algumas pessoas pensavam que o número de documentos e patentes na China em IA era comparável ao dos Estados Unidos. **O lançamento do ChatGPT nos fez ver a diferença entre a China e os Estados Unidos no AIGC. Agora precisamos entender claramente e prestar atenção aos desafios que enfrentamos, fazer inovações reais, transformar desafios em oportunidades e dar a contribuição da China para a nova rodada de IA. **
Recomenda-se abrir a plataforma de poder de computação nacional para suportar vários treinamentos de modelos em grande escala
**T: O ChatGPT é, sem dúvida, uma grande inovação. Como a China deve incentivar inovações como essa no futuro e quais aspectos do trabalho ela deve fazer? **
**Wu Hequan: **O desenvolvimento da inteligência artificial de discriminativa para generativa é uma inovação marcante e começou a entrar no caminho da inteligência artificial geral. Do GPT-3 ao GPT-4, evoluiu da entrada de texto para a entrada gráfica parcial, ou seja, aumentou a capacidade de entender gráficos. Com base nisso, não é longe implementar uma arquitetura de aprendizado profundo e um modelo geral para dar suporte à entrada de dados multimodais. Sim, mas a tarefa de generalização de modelos grandes e o refinamento da invocação sob demanda de modelos grandes ainda exigem maior investimento e inovação. O aprendizado não rotulado e não supervisionado de dados para gráficos e vídeos é muito mais difícil do que a linguagem e entrada de texto.
Estamos agora em um período crítico de desenvolvimento em direção à inteligência artificial geral.Para o nosso país, esta é uma rara oportunidade de salto de desenvolvimento e também um grande desafio. Poder de computação, modelos e dados são as condições necessárias para o sucesso do ChatGPT e também serão os fatores essenciais para o sucesso da inteligência artificial geral.Além disso, a ecologia, mecanismo e talentos mais inovadores são a chave. A China é comparável aos Estados Unidos em termos de escala total de poder de computação, mas a coordenação do poder de computação em centros de dados ainda enfrenta desafios institucionais, e a taxa de utilização e a eficiência do poder de computação em muitos centros de computação inteligentes não são altas. **Muitas unidades pesquisam grandes modelos de forma independente, sendo inevitável a repetição em baixo nível **Recomenda-se a formação de força conjunta com razoável divisão do trabalho sob a coordenação dos planos nacionais de ciência e tecnologia e industrial. Recomenda-se abrir a plataforma de poder de computação do laboratório nacional para suportar vários treinamentos de modelos em grande escala. ** Por exemplo, o poder de computação do Pengcheng Cloud Brain atingiu 3/4 da capacidade total, que pode suportar a escala de 200 bilhões de parâmetros comparáveis ao GPT-3. Modelo grande de idioma chinês pré-treinado de código aberto. **Ao mesmo tempo, é recomendável formar uma aliança de poder de computação para concentrar os recursos de poder de computação das GPUs de ponta existentes e fornecer o poder de computação necessário para treinamento de dados de modelo em larga escala. **Atualmente, a "China Computing Power Network (C2NET)" construída principalmente pelo Pengcheng Laboratory foi conectada a mais de 20 computadores inteligentes de grande escala, supercomputação e centros de dados, e o poder de computação heterogêneo agregado atingiu 3EFlops. eles, o poder de computação AI auto-desenvolvido excede 1.8EFlops. Além disso, a aplicação de chatbots é apenas uma forma intuitiva de treinar e testar o AIGC, mas o chat não é apenas necessário. É necessário desenvolver vários modelos para aplicações industriais com base em grandes modelos, de modo a tornar os grandes modelos eficazes na indústria o mais rápido possível Cultive mais talentos na aplicação de todas as esferas da vida. **
Grandes aplicativos da indústria de modelos exigem talentos abrangentes que entendam tanto a tecnologia da indústria quanto o treinamento em IA
**T: Até agora vimos a aplicação do ChatGPT em alguns campos, como chatbots, geração de texto e reconhecimento de fala. Haverá algumas oportunidades de aplicação na indústria física e no campo no futuro? Quais os obstáculos ainda enfrentados na aplicação de grandes modelos na indústria física? **
**Wu Hequan: **Com base nos chatbots ChatGPT existentes, depois de complementar o treinamento relevante da indústria e do conhecimento empresarial, eles podem realizar um trabalho inteligente de atendimento ao cliente nas empresas, substituindo trabalhadores para fornecer aos clientes serviços de pré-venda e pós-venda. No processo de design e fabricação que requer programação de software, o ChatGPT pode substituir programadores para concluir tarefas de programação e verificar bugs de software. Pode realizar a coleta, tradução e organização de documentos e materiais necessários no processo de design e produção. Após o treinamento profissional, modelos grandes do tipo AIGC podem ser usados para projetar software EDA, como software de ferramenta para projeto de IC. Em empresas de animação e jogos, os robôs treinados com base em grandes modelos do tipo AIGC podem escrever scripts, criar scripts de jogos e programá-los de acordo com prompts e concluir a renderização de animações 3D.
No entanto, o ChatGPT não é um modelo geral e é difícil aplicá-lo diretamente ao processo de fabricação da indústria real. No entanto, ele pode ser baseado no princípio do treinamento ChatGPT e usar o gráfico de conhecimento de indústrias e empresas para in- treinamento aprofundado. É possível desenvolver um grande modelo dedicado a empresas para concluir isso. O desafio do primeiro trabalho é precisar de talentos que não estejam apenas familiarizados com o processo de upload corporativo e a tecnologia de link principal, mas também dominem o treinamento de big data em inteligência artificial tecnologia.
Do foco nos resultados ao foco no processo, a integração da tecnologia e do sistema jurídico domina o processo de raciocínio do AIGC
**T:ChatGPT também cometerá vários erros, e também trará alguns problemas éticos, de segurança e privacidade.Ao aplicar modelos grandes no futuro, como podemos criar um ambiente inclusivo e seguro e de desenvolvimento? **
**Wu Hequan:**O surgimento da IA generativa levou a atenção da sociedade para a inteligência artificial a um nível sem precedentes. Ao desencadear um aumento na pesquisa de IA nos círculos científicos e industriais, muitos especialistas temem que a inteligência artificial destrua os seres humanos e chamada para interromper a pesquisa sobre GPT-5. As preocupações de alguns especialistas não são infundadas, porque o processo de pensamento dos robôs ChatGPT é atualmente opaco. Os humanos criaram o ChatGPT, mas atualmente os humanos não compreendem totalmente seu processo de raciocínio. O incognoscível será incontrolável e há riscos de anormalidade do robô , anomia ética e comportamento fora de controle.
**A solução não é parar a pesquisa em inteligência artificial, mas focar na pesquisa AIGC em vez de focar em resultados, projetar e liderar seu processo de raciocínio, para que os resultados possam ser esperados e os comportamentos possam ser controlados. **A promoção e aplicação do modelo grande no futuro requer uma avaliação segura e credível por uma instituição qualificada, e o processo de raciocínio do modelo grande é rastreável após inspeção. Ao mesmo tempo, é necessário estabelecer leis e regulamentos de governança de IA correspondentes para evitar o treinamento enganoso do AIGC, responsabilizar os participantes do treinamento do AIGC e punir severamente os crimes de cumplicidade e cumplicidade. Através da complementaridade da tecnologia e do sistema jurídico, a inteligência artificial tornou-se um assistente verdadeiramente leal aos seres humanos.