I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder computacional são os três elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), todos igualmente indispensáveis. Assim como a trajetória de evolução da infraestrutura na indústria tradicional de IA, o campo de Crypto AI também passou por etapas semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando uma lógica de crescimento extensivo centrada em "competir em poder computacional". Contudo, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição do Crypto AI de uma competição por recursos de base para uma construção de médio nível com maior sustentabilidade e valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem tradicionais (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode facilmente ultrapassar vários milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve de um modelo base reutilizável, geralmente é baseado em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e a barreira técnica.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-plug do módulo LoRA, RAG (Geração Aumentada por Recuperação), entre outros. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto aprimora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.
Crypto AI no valor e limites da camada de modelo
Os projetos de IA cripto, em essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão central é que
Barreiras tecnológicas muito altas: a escala de dados, os recursos computacionais e as capacidades de engenharia necessárias para treinar um Modelo de Fundação são extremamente grandes, atualmente apenas gigantes tecnológicos como os Estados Unidos e a China possuem as capacidades correspondentes.
Limitações do ecossistema de código aberto: embora modelos base como LLaMA e Mixtral tenham sido abertos, a verdadeira chave para o avanço dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia fechados, com espaço limitado para a participação de projetos em cadeia no nível do modelo central.
No entanto, em cima dos modelos básicos de código aberto, o projeto Crypto AI ainda pode estender valor através do ajuste fino de modelos de linguagem especializados (SLM) e da combinação com a verificabilidade e mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia de indústria de IA, isso se reflete em duas direções principais:
Camada de Verificação Confiável: Através do registro em cadeia do caminho gerado pelo modelo, contribuição de dados e uso, aumenta a rastreabilidade e a resistência à manipulação da saída da IA.
Mecanismo de incentivo: Utilizando o Token nativo, para incentivar o upload de dados, chamadas de modelo, execução de agentes (Agent) e outras ações, construindo um ciclo positivo de treinamento e serviço de modelo.
Análise da classificação dos tipos de modelos de IA e sua aplicabilidade na blockchain
Como pode ser visto, os pontos de viabilidade dos projetos de Crypto AI do tipo modelo concentram-se principalmente na afinação leve de SLM pequenos, na integração e verificação de dados em cadeia da arquitetura RAG, e na implementação local e incentivação de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode fornecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado da camada de "interface" da IA.
A cadeia de IA baseada em dados e modelos de blockchain pode registrar de forma clara e imutável a origem da contribuição de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente desencadeada quando dados ou modelos são utilizados, transformando o comportamento da IA em um valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, e aprimorar a arquitetura de governança descentralizada.
II. Visão Geral do Projeto | A Visão da Cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente operacional de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e a receber ganhos em cadeia com base nas contribuições reais.
OpenLedger oferece um ciclo completo de cadeia desde a "fornecimento de dados" até o "desdobramento de modelos" e "chamada de repartição de lucros", sendo seus módulos principais:
Fábrica de Modelos: sem necessidade de programação, é possível usar LoRA para ajuste fino e treinamento de modelos personalizados baseados em LLM de código aberto;
OpenLoRA: suporta a coexistência de milhares de modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implementação;
PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registro de chamadas na cadeia.
Datanets: Redes de dados estruturados voltadas para cenários verticais, construídas e validadas por colaboração da comunidade;
Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos on-chain, combináveis, chamáveis e pagáveis.
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Construído em OP Stack: Baseado na pilha de tecnologia Optimism, suporta alta taxa de transferência e execução de baixo custo;
Liquidar na rede principal do Ethereum: garantir a segurança das transações e a integridade dos ativos;
Compatível com EVM: Facilita o desenvolvimento rápido e a expansão com base em Solidity;
EigenDA fornece suporte de disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.
Em comparação com cadeias de IA genéricas como a NEAR, que são mais voltadas para a camada base e focam na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger se concentra mais na construção de cadeias específicas de IA voltadas para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos na cadeia realizáveis de forma rastreável, combinável e sustentável. É a infraestrutura básica de incentivos de modelos no mundo Web3, combinando hospedagem de modelos, cobrança pelo uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelos como ativos".
Três, os componentes centrais e a arquitetura técnica do OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sem código
ModelFactory é uma grande plataforma de ajuste fino de modelos de linguagem (LLM) no ecossistema OpenLedger. Ao contrário dos frameworks tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integrações de API. Os usuários podem ajustar o modelo com base nos conjuntos de dados que foram autorizados e auditados na OpenLedger. Isso realiza um fluxo de trabalho integrado para autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
Controle de acesso a dados: O utilizador submete um pedido de dados, o fornecedor revisa e aprova, e os dados são automaticamente integrados na interface de treino do modelo.
Seleção e configuração do modelo: Suporta LLMs principais, configurando hiperparâmetros através da GUI.
Ajuste leve: motor LoRA / QLoRA embutido, exibição em tempo real do progresso do treinamento.
Avaliação e Implementação de Modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou chamada de compartilhamento ecológico.
Interface de validação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
Geração de RAG para rastreabilidade: Responder com citações de origem, aumentando a confiança e a auditabilidade.
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, bem como rastreamento RAG, criando uma plataforma de serviços de modelo integrada que é segura, controlável, interativa em tempo real e sustentável em termos de monetização.
O modelo de capacidades dos grandes modelos de linguagem suportados pelo ModelFactory é o seguinte:
Série LLaMA: o ecossistema mais amplo, comunidade ativa, desempenho geral forte, é um dos modelos de base de código aberto mais populares atualmente.
Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários com implantação flexível e recursos limitados.
Qwen: Desempenho excelente em tarefas em chinês, com forte capacidade abrangente, adequado como primeira escolha para desenvolvedores nacionais.
ChatGLM: A conversa em chinês é proeminente, adequada para atendimento ao cliente em nichos e cenários de localização.
Deepseek: apresenta um desempenho superior na geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
Gemma: Um modelo leve lançado pelo Google, com uma estrutura clara, fácil de aprender rapidamente e experimentar.
Falcon: Foi uma referência de desempenho, adequado para pesquisa básica ou testes comparativos, mas a atividade da comunidade diminuiu.
BLOOM: Suporte a múltiplas línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisas de cobertura linguística.
GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e verificação, não recomendado para uso em implantação real.
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições reais do que é implantado em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando numa configuração de "pragmatismo em primeiro lugar".
Model Factory como uma cadeia de ferramentas sem código, todos os modelos têm um mecanismo de prova de contribuição incorporado, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, possuindo vantagens de baixa barreira, monetizável e combinável, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
Para os desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
Para a plataforma: formar a circulação de ativos de modelo e ecossistema de combinação;
Para os utilizadores: podem combinar modelos ou Agentes da mesma forma que chamam uma API.
3.2 OpenLoRA, a assetização em cadeia de modelos ajustados
LoRA (Low-Rank Adaptation) é um método de ajuste fino de parâmetros eficiente que aprende novas tarefas ao inserir "matrizes de baixa classificação" em grandes modelos pré-treinados, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente têm dezenas de bilhões ou até trilhões de parâmetros. Para usá-los em tarefas específicas, é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original, apenas treinar as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais adequado atualmente para a implantação e chamada combinada de modelos Web3.
OpenLoRA é um framework leve de inferência projetado pela OpenLedger, especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução prática da "IA Pagável".
OpenLoRA sistema arquitetônico componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros pontos críticos, alcançando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:
Módulo de armazenamento do LoRA Adapter: o LoRA adapter ajustado é hospedado no OpenLedger, permitindo carregamento sob demanda, evitando a pré-carregamento de todos os modelos na memória gráfica, economizando recursos.
Hospedagem de modelos e camada de fusão dinâmica: todos os ajustes finos
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
13 Curtidas
Recompensa
13
3
Compartilhar
Comentário
0/400
ConfusedWhale
· 07-07 17:26
Então, ainda estamos a aumentar o poder de computação.
Ver originalResponder0
MevShadowranger
· 07-06 01:47
Bom trabalho, dados são o novo petróleo do Web3.0
Ver originalResponder0
GhostAddressMiner
· 07-06 01:23
O padrão de embalagem de itens de capital observar de forma fria os movimentos dos endereços de moeda em circulação inicial é a chave.
OpenLedger cria a cadeia de IA para construir a infraestrutura econômica de agentes inteligentes impulsionada por dados.
OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder computacional são os três elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), todos igualmente indispensáveis. Assim como a trajetória de evolução da infraestrutura na indústria tradicional de IA, o campo de Crypto AI também passou por etapas semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando uma lógica de crescimento extensivo centrada em "competir em poder computacional". Contudo, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição do Crypto AI de uma competição por recursos de base para uma construção de médio nível com maior sustentabilidade e valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem tradicionais (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode facilmente ultrapassar vários milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve de um modelo base reutilizável, geralmente é baseado em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e a barreira técnica.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-plug do módulo LoRA, RAG (Geração Aumentada por Recuperação), entre outros. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto aprimora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.
Crypto AI no valor e limites da camada de modelo
Os projetos de IA cripto, em essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão central é que
No entanto, em cima dos modelos básicos de código aberto, o projeto Crypto AI ainda pode estender valor através do ajuste fino de modelos de linguagem especializados (SLM) e da combinação com a verificabilidade e mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia de indústria de IA, isso se reflete em duas direções principais:
Análise da classificação dos tipos de modelos de IA e sua aplicabilidade na blockchain
Como pode ser visto, os pontos de viabilidade dos projetos de Crypto AI do tipo modelo concentram-se principalmente na afinação leve de SLM pequenos, na integração e verificação de dados em cadeia da arquitetura RAG, e na implementação local e incentivação de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode fornecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado da camada de "interface" da IA.
A cadeia de IA baseada em dados e modelos de blockchain pode registrar de forma clara e imutável a origem da contribuição de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente desencadeada quando dados ou modelos são utilizados, transformando o comportamento da IA em um valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, e aprimorar a arquitetura de governança descentralizada.
II. Visão Geral do Projeto | A Visão da Cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente operacional de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e a receber ganhos em cadeia com base nas contribuições reais.
OpenLedger oferece um ciclo completo de cadeia desde a "fornecimento de dados" até o "desdobramento de modelos" e "chamada de repartição de lucros", sendo seus módulos principais:
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Em comparação com cadeias de IA genéricas como a NEAR, que são mais voltadas para a camada base e focam na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger se concentra mais na construção de cadeias específicas de IA voltadas para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos na cadeia realizáveis de forma rastreável, combinável e sustentável. É a infraestrutura básica de incentivos de modelos no mundo Web3, combinando hospedagem de modelos, cobrança pelo uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelos como ativos".
Três, os componentes centrais e a arquitetura técnica do OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sem código
ModelFactory é uma grande plataforma de ajuste fino de modelos de linguagem (LLM) no ecossistema OpenLedger. Ao contrário dos frameworks tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integrações de API. Os usuários podem ajustar o modelo com base nos conjuntos de dados que foram autorizados e auditados na OpenLedger. Isso realiza um fluxo de trabalho integrado para autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, bem como rastreamento RAG, criando uma plataforma de serviços de modelo integrada que é segura, controlável, interativa em tempo real e sustentável em termos de monetização.
O modelo de capacidades dos grandes modelos de linguagem suportados pelo ModelFactory é o seguinte:
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições reais do que é implantado em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando numa configuração de "pragmatismo em primeiro lugar".
Model Factory como uma cadeia de ferramentas sem código, todos os modelos têm um mecanismo de prova de contribuição incorporado, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, possuindo vantagens de baixa barreira, monetizável e combinável, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
3.2 OpenLoRA, a assetização em cadeia de modelos ajustados
LoRA (Low-Rank Adaptation) é um método de ajuste fino de parâmetros eficiente que aprende novas tarefas ao inserir "matrizes de baixa classificação" em grandes modelos pré-treinados, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente têm dezenas de bilhões ou até trilhões de parâmetros. Para usá-los em tarefas específicas, é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original, apenas treinar as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais adequado atualmente para a implantação e chamada combinada de modelos Web3.
OpenLoRA é um framework leve de inferência projetado pela OpenLedger, especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução prática da "IA Pagável".
OpenLoRA sistema arquitetônico componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros pontos críticos, alcançando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo: