Yao Qian: Algumas reflexões sobre a construção ecológica de modelos em grande escala

Autor|Yao Qian "Diretor do Bureau de Supervisão de Tecnologia da Comissão Reguladora de Valores Mobiliários da China"

Fonte| "China Finance" Edição 13, 2023

Fonte da imagem: Gerada por Unbounded AI‌

Entrando em 2023, aplicativos de inteligência artificial orientados à geração de conteúdo, como ChatGPT, GPT4 e Midjourney, desencadearam rodadas de ondas de inovação. Algumas pessoas até pensam que o modelo grande está evoluindo iterativamente em unidades de dias. Como um novo fator de produção, o desenvolvimento benigno e sustentável de dados de treinamento de grandes modelos é crucial para o desenvolvimento de grandes modelos e indústrias de inteligência artificial. Como um importante campo de aplicativos de big data e inteligência artificial, o setor financeiro deve prestar muita atenção aos mais recentes desenvolvimentos em tecnologias relacionadas ao treinamento de grandes modelos. Este artigo analisa primeiro a evolução e o caminho de atualização de modelos grandes e, em seguida, discute os possíveis métodos de interação entre modelos grandes e modelos pequenos e médios, e expõe a ecologia de dados e a construção ecológica de modelos grandes. O desenvolvimento sustentável de modelos de grande escala a ecologia fornece ideias relevantes.

Atualização e análise do caminho de evolução de grandes modelos

De uma perspectiva de longo prazo, a evolução de grandes modelos tem muitas ramificações. Recentemente, a velocidade de iteração de grandes modelos não apenas acelerou, mas também mais e mais participantes, cobrindo basicamente todas as grandes empresas de tecnologia, e a diversidade e a complexidade da ecologia surgiram inicialmente.

No momento, não há mudança essencial na estrutura do algoritmo subjacente no processo iterativo de atualização do modelo grande. A entrada de poder de computação e a abundância de dados de treinamento ainda são a chave para sua rápida evolução, mas o GPT4 mais recente apresenta alguns novos características.

**Uma delas é que o algoritmo é mais adequado para tarefas downstream específicas. **GPT3 e GPT3.5 são modelos grandes com 175 bilhões de parâmetros. O GPT4 não anunciou parâmetros específicos no momento, mas algumas pessoas especulam que seus parâmetros atingirão trilhões de níveis. Ao mesmo tempo, também haverá uma melhoria significativa no aprendizado por reforço e na resolução de tarefas específicas. O termo mais popular é "alinhamento". . Se os modelos da série GPT3 provarem a todos que a inteligência artificial pode realizar várias tarefas em um modelo, então o GPT4 alcançou ou até ultrapassou os níveis humanos em muitas tarefas, os 10% melhores ou mais.

**O segundo é ter recursos de governança de dados de treinamento mais padronizados e suporte a multimodalidade. **GPT4 tem uma capacidade multimodal "comparável ao cérebro humano", que não é muito diferente do mecanismo multimodal descrito em muitos artigos atuais, mas pode combinar a capacidade de processamento de poucas amostras do modelo de texto com o cadeia de pensamento (Chain of Thought), CoT) combinada. A governança e o fornecimento de dados de treinamento GPT4 são inseparáveis da rotulagem de dados, gerenciamento e avaliação de dados, automação de dados e síntese de dados.

A terceira é construir um cluster de poder de computação mais poderoso para atender a mais conjuntos de dados de treinamento e parâmetros de entrada maiores. ** Por exemplo, a Microsoft dedicou mais da metade de seus recursos de nuvem para treinamento de modelos grandes e aplicativos de conteúdo gerado por inteligência artificial (AIGC). A Nvidia até uniu forças com TSMC, ASML e Synopsys para criar uma nova plataforma de computação e uma GPU mais poderosa.

Construir um ecossistema onde vários modelos estão interconectados

Grandes modelos do tipo GPT são poderosos e se tornarão uma das infraestruturas importantes em muitos setores, como Internet, finanças e áreas médicas no futuro. Por exemplo, na área financeira, após treinamento com dados profissionais relevantes, o grande modelo pode ter a capacidade de entender o conhecimento do negócio financeiro, podendo propor soluções para cenários específicos, apoiando instituições financeiras na realização de automação de marketing, mineração de relacionamento com clientes, inteligência identificação de risco, atendimento inteligente ao cliente, pesquisa de investimento inteligente, etc.

No entanto, no processo de implementação de aplicativos específicos, grandes modelos do tipo GPT enfrentarão uma série de desafios. Uma delas é como garantir a quantidade e a qualidade dos dados de treinamento. De um modo geral, o corpus de treinamento de grandes modelos é corpus de propósito geral de vários campos, enquanto a coleta de corpus profissional geralmente é demorada e trabalhosa, e também há questões de privacidade. Como resultado, grandes modelos podem parecer profissionais em áreas específicas campos de aplicação individual inadequação sexual. A segunda é como reduzir os custos de operação e manutenção de modelos grandes. Grandes modelos requerem grande suporte de poder de computação e controle estrito de dados.Muitas vezes, é difícil para instituições comuns e departamentos de aplicativos oferecer suporte à operação e atualização iterativa de grandes modelos. Para tanto, é necessário estabelecer uma ecologia de interação saudável e coevolução de vários modelos para garantir que a indústria de inteligência artificial relacionada a grandes modelos possa ser implementada com sucesso em vários campos de aplicação.

Do ponto de vista técnico, a evolução de grandes modelos depende do aprendizado por reforço com feedback humano (Reinforcement Learning from Human Feedback, RLHF). Pessoas muito profissionais escreverão entradas e darão respostas de alta qualidade que estejam de acordo com a lógica e a expressão humanas para as perguntas e instruções correspondentes. No entanto, devido à lacuna entre a interação homem e máquina, o modo ideal é realizar o aprendizado por reforço por meio da interação entre modelos, ou seja, aprendizado por reforço com base no feedback do modelo (Reinforcement Learning from Model Feedback, RLMF). Com base na interação de vários modelos, os dados e a ecologia do modelo de todo o modelo grande podem ser unificados em uma estrutura.

No passado, sob o modelo de desenvolvimento de modelo descentralizado, várias tarefas em um único cenário de aplicação de inteligência artificial precisavam ser suportadas por vários modelos, e cada construção de modelo tinha que passar pelo processo de desenvolvimento de algoritmo, processamento de dados, treinamento de modelo e ajuste. O modelo grande pré-treinado aumenta a versatilidade e a generalização da inteligência artificial. Com base no modelo grande, o ajuste fino com amostras zero ou amostras pequenas pode alcançar melhores resultados em várias tarefas. O modelo grande "pré-treinamento + ajuste fino" trouxe um novo paradigma padronizado para pesquisa e desenvolvimento de inteligência artificial, permitindo que modelos de inteligência artificial alcancem produção em larga escala de maneira mais unificada e concisa. Com foco na inovação tecnológica e na implementação de aplicativos, os dados e a ecologia industrial de grandes modelos podem ser divididos em infraestrutura (incluindo corpus geral e plataformas de poder de computação), grandes modelos básicos e grandes serviços de modelo (incluindo dados sintéticos, fornecimento de modelo e plugue de aplicativo -ins). Em aplicativos downstream, os usuários podem implantar seus próprios modelos pequenos para melhorar o desempenho por meio de vários serviços do modelo grande e, ao mesmo tempo, fornecer serviços de feedback correspondentes ao modelo grande reverso para ajudar a evoluir iterativamente o modelo grande (consulte a Figura 1).

O modelo grande básico é o motor principal da ecologia industrial do modelo grande. Suas vantagens residem em sua basicidade e versatilidade. Ele é orientado para tarefas típicas, como processamento de linguagem natural, visão computacional e tarefas multimodais. Ele combina ainda mais as características da tarefa , otimiza algoritmos de modelo e aprende dados e conhecimento relacionados, para que grandes modelos possam mostrar melhores resultados e até mesmo serem aplicados diretamente com amostras zero.

O modelo pequeno tem as características de tamanho pequeno (geralmente no nível de dezenas de bilhões de parâmetros), fácil treinamento e manutenção, por isso é adequado para vários campos verticais e desenvolvimento interno e uso em vários setores. Em geral, os modelos pequenos são menos caros para treinar, mas têm muito menos desempenho do que os modelos grandes. Por meio da aplicação interativa de modelos grandes e pequenos, o modelo pequeno pode obter parte dos recursos do modelo grande ou realizar algumas funções, de modo que o desempenho do modelo pequeno pode ser bastante aprimorado sem aumentar os custos de operação e manutenção e atender a requisitos específicos requisitos de aplicação. As formas de interação de modelo grande e pequeno podem ser divididas em três categorias: interação de dados, interação de modelo e interação de aplicativo (consulte a Figura 2).

* Interação de dados

Interação de dados significa que modelos grandes e pequenos não participam diretamente do treinamento ou do processo de raciocínio um do outro, mas interagem indiretamente por meio dos dados gerados um pelo outro. O treinamento de modelos grandes geralmente requer corpus de uso geral em larga escala. Por exemplo, o corpus de treinamento de GPT3 atinge 753 GB, que vem de várias fontes de dados, como a Wikipedia. O corpus de propósito geral refere-se ao corpus que cobre vários campos, e a cobertura do conhecimento em alguns campos específicos pode ser insuficiente. Após a conclusão do treinamento do modelo grande, algum corpus sintético específico do domínio pode ser gerado por meio de instruções e, em seguida, por meio da implantação localizada, o modelo pequeno pode ser treinado junto com o corpus dedicado do campo ou o corpus privado da indústria. O campo do corpus de treinamento de modelos pequenos é relativamente concentrado, portanto, o conhecimento nesse campo pode ser dominado sistematicamente, de modo que a saída do modelo seja mais profissional, mais detalhada e mais precisa. O papel do modelo grande nesse processo é gerar um corpus sintético de alta qualidade em larga escala, para que o treinamento do modelo pequeno seja mais adequado e evite o overfitting do modelo devido ao tamanho pequeno do corpus especial ou corpo privado. Por outro lado, o corpus profissional gerado pelo modelo pequeno também pode ser usado como um complemento ao corpus de treinamento do modelo grande para aprimorar as capacidades profissionais do modelo grande em diferentes campos, de modo que o modelo grande possa continuar a evoluir iterativamente.

Para obter a interação de dados entre modelos grandes e pequenos, além de contar com a organização de gerenciamento de fonte de dados, também é necessário considerar o estabelecimento de uma custódia de dados e organização comercial, para que os dados de treinamento de modelos grandes e pequenos possam ser controlados e fluiu de forma ordenada, e a correspondente alocação para todas as partes é razoável. direitos e interesses.

  • Interação do modelo

Além da interação indireta de dados, modelos grandes e pequenos também podem interagir no nível do modelo. Ao participar do processo de treinamento um do outro, ambas as partes podem se beneficiar e melhorar a eficiência da iteração de modelos grandes. Por um lado, modelos grandes podem orientar o treinamento de modelos pequenos, e o método comumente usado é a destilação do conhecimento. No modo de aprendizado de destilação, o modelo grande treinado pode ser usado como modelo de professor, e o modelo pequeno a ser treinado pode ser usado como modelo de aluno. Para o mesmo lote de dados de treinamento, projetando uma função de perda razoável, o soft rótulos gerados pelo modelo grande e os próprios dados de treinamento Rótulos rígidos guiam conjuntamente o treinamento de modelos pequenos. Da mesma forma, o modelo pequeno também pode executar a destilação reversa no modelo grande e usar o modelo pequeno para fazer julgamentos de valor de amostra para ajudar o modelo grande a acelerar a convergência - depois de ajustar ainda mais o modelo pequeno treinado no conjunto de dados downstream, uma amostra modelo de julgamento de valor é obtido.

  • Interação do aplicativo

A maneira típica de modelos grandes e pequenos interagirem no nível do aplicativo é o modo de plug-in, que encapsula o aplicativo construído pelo modelo em um serviço de plug-in para outros modelos chamarem. O modo plug-in tem duas vantagens: uma é conveniente e eficiente, e o modelo não precisa ser treinado novamente; a outra é um bom isolamento, que pode evitar o vazamento de detalhes do modelo, protegendo melhor os direitos e interesses dos treinadores de modelos e usuários.

Por um lado, o modelo grande adota basicamente o método de pré-treinamento e o desempenho em tempo real não é alto. Ao chamar o plug-in de aplicativo de modelo pequeno, o aplicativo de modelo grande pode não apenas melhorar o desempenho em tempo real dos resultados de saída, mas também expandir sua falta de conhecimento em campos específicos. Por outro lado, os aplicativos construídos com modelos pequenos também podem obter diretamente os poderosos recursos de geração e raciocínio de modelos grandes chamando os plug-ins fornecidos por modelos grandes do tipo GPT. Este método de interação do aplicativo pode salvar pequenos modelos do processo de treinamento de conhecimentos gerais e focar na produção de conteúdo em áreas específicas a um custo menor.Os usuários também podem sentir a reação "química" produzida pela interligação de vários modelos.

Os novos plug-ins do produto ChatGPT lançados recentemente pela Open AI (Open AI) podem conectar o ChatGPT e aplicativos de terceiros por meio de plug-ins de aplicativos. Esses aplicativos de terceiros podem ser construídos a partir de pequenos modelos de um único domínio. Desta forma, o modelo pequeno pode completar uma variedade de funções estendidas no modelo grande semelhante ao ChatGPT, como recuperar informações em tempo real ou informações da base de conhecimento e substituir usuários por "agendamento inteligente" do mundo real.

Padronização e controle de segurança de dados de treinamento de modelo grande e cadeia de ferramentas de modelo

O desempenho de um modelo grande depende da qualidade dos dados de treinamento. Ao mesmo tempo, as especificações técnicas subjacentes exigidas pelo modelo em diferentes cenários de pouso também são diferentes. Portanto, para construir uma boa ecologia industrial com desenvolvimento sustentável e interação saudável de grandes modelos, é necessário promover a padronização de dados de treinamento de grandes modelos e tecnologias subjacentes e acelerar a iteração e implementação de modelos.

Por um lado, o conjunto de dados de treinamento do próprio modelo grande e a interface de serviço de dados (API) definida se tornarão o padrão de fato do setor, e vários aplicativos que acessam o modelo grande devem seguir esse padrão. Atualmente, o modelo "pré-treinamento + ajuste fino" tornou-se um processo padrão unificado e um paradigma na indústria. Com base nisso, combinados com cenários de aplicação específicos e dados profissionais, pequenos modelos em vários campos e indústrias podem ser personalizados e otimizados. Até certo ponto, dados de treinamento de modelo grande e padrões de interface de serviço de dados se tornarão um dos núcleos da próxima geração de padrões internacionais.

Por outro lado, a cadeia de ferramentas exigida pela tecnologia subjacente para processar dados de treinamento de modelo grande também deve ser produzida e padronizada. Com o forte suporte de serviços técnicos padronizados, o modelo grande pode produzir soluções técnicas, como adaptação de hardware, destilação e compressão de modelos, treinamento e aceleração distribuídos de modelos, banco de dados vetorial, banco de dados de gráficos e interconexão de modelos, fornecendo processamento de linguagem natural, visão computacional, Vários recursos, como cross-modality e gráficos de conhecimento, permitem que mais empresas e desenvolvedores apliquem grandes modelos em seus próprios negócios e construam modelos verticais da indústria com um limite baixo, promovendo assim a implementação generalizada de inteligência artificial em vários campos.

Vale a pena notar que, embora o desenvolvimento e a aplicação de grandes modelos tragam enormes dividendos para o desenvolvimento industrial e econômico, se não forem devidamente controlados, também trarão riscos para a segurança nacional e industrial. Um deles é o risco de vazamento de dados. O treinamento e a implementação de grandes modelos precisam ser apoiados por grandes quantidades de dados, incluindo informações confidenciais da indústria ou pessoais. Se não houver dessensibilização de dados razoável e mecanismo de custódia de dados, isso pode causar vazamento de dados e causar perdas para a indústria e indivíduos. O segundo é o risco de segurança do modelo. Por exemplo, plug-ins podem ser implantados com conteúdo nocivo e se tornar uma ferramenta para fraude e "envenenamento" por criminosos, colocando em risco a segurança social e industrial.

Sugestões relacionadas

**Usando dados de treinamento de modelo grande como ponto de partida, a formulação padrão e a governança de dados têm duas vertentes. ** Promover o desenvolvimento padronizado da indústria formulando especificações de aplicativos de modelo e unificando padrões de interface. Pode-se considerar hospedar os dados sintéticos do modelo para fortalecer a supervisão e garantir a conformidade do conteúdo dos dados, direitos e interesses claros e circulação suave. Ao mesmo tempo, melhore leis e regulamentos, otimize políticas e sistemas, forme uma força reguladora conjunta de várias maneiras e métodos e evite estritamente a adulteração maliciosa de modelos e a infiltração de dados nocivos.

**Construa um grande mercado de elemento de dados de treinamento de modelo. ** Esclarecer a cadeia industrial entre coleta e processamento de dados de treinamento, serviços de dados sintéticos, interconexão entre modelos grandes e pequenos e APIs de aplicativos. Acelerar a construção do mercado de elementos de dados, fornecer preços orientados ao mercado para dados de treinamento e facilitar a distribuição e incentivos de direitos e interesses.

**Construa uma boa ecologia de desenvolvimento simbiótico e promoção mútua de modelos grandes e pequenos. **Em geral, não há diferença intergeracional no nível do algoritmo dos grandes modelos convencionais em casa e no exterior, mas há uma lacuna no poder de computação e nos dados. Recomenda-se apoiar vigorosamente as principais empresas de tecnologia domésticas para desenvolver modelos domésticos independentes e controláveis em grande escala no campo geral. Ao mesmo tempo, incentivar todos os campos verticais a usar ferramentas de código aberto para construir cadeias de ferramentas independentes padronizadas e controláveis com base de grandes modelos, de modo a explorar "grandes e fortes" Também desenvolve um modelo de indústria vertical "pequeno e bonito", de modo a construir uma boa ecologia de simbiose interativa e evolução iterativa entre o grande modelo básico e o pequeno modelo profissional.

(Editor responsável Zhang Lin)

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)