Um, Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder de computação são os três elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder de computação), todos essenciais. Assim como o caminho de evolução da infraestrutura na indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados ( certa plataforma de computação GPU, certa plataforma de renderização, certa plataforma de rede, etc. ), enfatizando amplamente a lógica de crescimento extensivo de "combinar poder de computação". Após a entrada em 2025, o foco da indústria começou a se deslocar para as camadas de modelo e dados, sinalizando que a Crypto AI está passando de uma competição por recursos básicos para uma construção de médio nível mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem tradicionais (LLM) dependem fortemente de grandes conjuntos de dados e arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode atingir milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que utiliza um modelo básico reutilizável, é geralmente baseado em modelos de código aberto como LLaMA, Mistral e DeepSeek, combinando uma pequena quantidade de dados especializados de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente os custos de treinamento e as barreiras técnicas.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim funcionará em colaboração com o LLM através da arquitetura Agent, roteamento dinâmico do sistema de plugins, a inserção a quente de módulos LoRA e RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema de inteligência combinatória altamente flexível.
O valor e os limites da Crypto AI na camada do modelo
Os projetos de IA Crypto, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem grande (LLM), sendo a razão principal
Barreiras tecnológicas demasiado altas: a escala de dados, os recursos de computação e as capacidades de engenharia necessários para treinar um Modelo Base são extremamente grandes; atualmente, apenas gigantes tecnológicos como os EUA (certas empresas de IA, etc.) e a China (certas empresas de aprendizagem profunda, etc.) possuem a capacidade correspondente.
Limitações do ecossistema de código aberto: Embora modelos básicos mainstream como LLaMA e Mixtral tenham sido abertos, a verdadeira chave para impulsionar a inovação dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia de código fechado, com espaço limitado para projetos em blockchain na camada de modelos centrais.
No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender o valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se manifesta em duas direções principais:
Camada de verificação confiável: através do registo em cadeia do caminho de geração do modelo, contribuições de dados e utilização, aumentando a rastreabilidade e a resistência à manipulação das saídas de IA.
Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, chamadas de modelos, execução de agentes, entre outras ações, construindo um ciclo positivo de treinamento e serviço de modelos.
Classificação de Tipos de Modelos de IA e Análise da Aplicabilidade da Blockchain
Como podemos ver, os pontos de viabilidade dos projetos de Crypto AI da classe de modelos estão principalmente concentrados na leve afinação de pequenos SLM, na integração e validação de dados on-chain da arquitetura RAG, e na implementação local e incentivo dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios a baixos, formando um valor diferenciado na "camada de interface" da AI.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem da contribuição de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, por meio do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são utilizados, transformando o comportamento da IA em valor tokenizado mensurável e comercializável, criando um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo por meio de votação com tokens, participar da formulação e iteração de regras, aperfeiçoando a estrutura de governança descentralizada.
II. Visão Geral do Projeto | A Visão da Cadeia de IA da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de funcionamento de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem ganhos em cadeia com base em suas contribuições reais.
OpenLedger oferece um ciclo completo de cadeia que vai desde a "fornecimento de dados" até a "implantação de modelos" e "chamada de divisão de lucros", com seus módulos principais incluindo:
Fábrica de Modelos: sem necessidade de programação, é possível usar LLM de código aberto para ajustar e treinar modelos personalizados com LoRA e implantá-los;
OpenLoRA: suporta a coexistência de milhares de modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implementação;
PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através de registros de chamadas na cadeia;
Datanets: Rede de dados estruturados voltada para cenários verticais, construída e validada pela colaboração da comunidade;
Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos on-chain que é combinável, invocável e pagável.
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura económica de agentes inteligentes" baseada em dados e com modelos combináveis, promovendo a on-chain da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Construído com base na OP Stack: baseado no stack tecnológico da Optimism, suporta alta capacidade de execução e baixos custos;
Liquidar na mainnet Ethereum: garantir a segurança das transações e a integridade dos ativos;
Compatível com EVM: Facilita o desenvolvimento para os desenvolvedores rapidamente implementar e expandir com base em Solidity;
EigenDA oferece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.
Comparado a uma blockchain pública que é mais voltada para a camada base, focando na soberania dos dados e na arquitetura de "AI Agents on BOS", o OpenLedger se concentra mais na construção de uma blockchain específica para IA voltada para a motivação de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos rastreáveis, combináveis e sustentáveis em um ciclo de valor. É uma infraestrutura de motivação de modelos no mundo Web3, combinando o armazenamento de modelos semelhante a uma plataforma de hospedagem de modelos, a cobrança de uso semelhante a uma plataforma de pagamento e interfaces combináveis na blockchain semelhantes a serviços de infraestrutura, impulsionando o caminho para a realização de "modelos como ativos".
Três, os componentes principais e a arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) dentro do ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica puramente operacional, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar os modelos com base em conjuntos de dados que foram autorizados e auditados na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
Controle de acesso a dados: O usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
Seleção e configuração do modelo: Suporta LLMs populares (como LLaMA, Mistral), configurando hiperparâmetros através da GUI.
Ajuste fino leve: Motor LoRA / QLoRA embutido, exibe o progresso do treinamento em tempo real.
Avaliação e implementação de modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou compartilhamento de chamadas no ecossistema.
Interface de verificação interativa: Fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
Geração de RAG de rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.
A arquitetura do sistema Model Factory contém seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implementação, e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura e controlável, com interação em tempo real e monetização sustentável.
O resumo das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é o seguinte:
Série LLaMA: a mais ampla ecologia, comunidade ativa e forte desempenho geral, é um dos modelos básicos de código aberto mais populares atualmente.
Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implantação flexíveis e recursos limitados.
Qwen: Produzido por um gigante da tecnologia, com excelente desempenho em tarefas em chinês, forte capacidade geral, ideal para desenvolvedores nacionais como primeira escolha.
ChatGLM: O desempenho em diálogos em chinês é destacado, adequado para atendimento ao cliente em nichos e cenários localizados.
Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
Gemma: Um modelo leve lançado por uma grande empresa de tecnologia, com uma estrutura clara, fácil de aprender rapidamente e experimentar.
Falcon: Era um marco de desempenho, adequado para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
BLOOM: Suporte multilíngue forte, mas desempenho de inferência fraco, adequado para pesquisa de cobertura linguística.
GPT-2: modelo clássico inicial, adequado apenas para fins educacionais e de validação, não recomendado para uso em produção.
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam em uma configuração "prática em primeiro lugar".
Model Factory como uma cadeia de ferramentas sem código, todos os modelos possuem um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuidores de dados e desenvolvedores de modelos, apresentando vantagens de baixa barreira, monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita de modelos;
Para a plataforma: formar um ecossistema de circulação e combinação de ativos modelares;
Para os utilizadores: podem combinar modelos ou agentes como se chamassem uma API.
3.2 OpenLoRA, a assetização on-chain do modelo de ajuste fino
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste de parâmetros que aprende novas tarefas ao inserir "matrizes de baixa rank" em um modelo grande pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até centenas de bilhões de parâmetros. Para usá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar o ajuste fino (fine-tuning). A estratégia central do LoRA é: "congelar os parâmetros do modelo grande original, apenas treinar as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-o o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3 atualmente.
OpenLoRA é uma estrutura leve de inferência projetada pela OpenLedger, especialmente para o deploy de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução de "IA Pagável".
Componentes principais da arquitetura do sistema OpenLoRA, baseados em design modular, abrangendo armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, alcançando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:
Módulo de Armazenamento de Adaptadores LoRA (LoRA Adapters Storage): O adaptador LoRA ajustado é hospedado no OpenLedger, permitindo carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória gráfica, economizando recursos.
Alojamento de Modelos e Camada de Mesclagem de Adaptadores (Model Hosting & Adapter Merging Layer): Todos os modelos ajustados partilham o modelo base (base model), durante a inferência LoRA adapter
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
9 Curtidas
Recompensa
9
7
Compartilhar
Comentário
0/400
ImpermanentSage
· 6h atrás
Não finjas mais, é só uma manobra para aumentar o poder de computação.
Ver originalResponder0
FloorSweeper
· 10h atrás
Está muito competitivo, ainda mais do que os programadores.
Ver originalResponder0
SighingCashier
· 10h atrás
Haha, como é que isso parece igual àquele que você compartilhou há alguns dias.
Ver originalResponder0
ZenZKPlayer
· 10h atrás
Já estou a fazer agentes inteligentes. Adorei, adorei.
Ver originalResponder0
GamefiEscapeArtist
· 10h atrás
É só mais uma jogada de marketing.
Ver originalResponder0
SilentObserver
· 10h atrás
Ainda é o poder de computação que é mais atraente.
OpenLedger constrói um modelo baseado em dados que combina uma cadeia de IA, baseado na OP Stack e EigenDA.
OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
Um, Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder de computação são os três elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder de computação), todos essenciais. Assim como o caminho de evolução da infraestrutura na indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados ( certa plataforma de computação GPU, certa plataforma de renderização, certa plataforma de rede, etc. ), enfatizando amplamente a lógica de crescimento extensivo de "combinar poder de computação". Após a entrada em 2025, o foco da indústria começou a se deslocar para as camadas de modelo e dados, sinalizando que a Crypto AI está passando de uma competição por recursos básicos para uma construção de médio nível mais sustentável e com valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem tradicionais (LLM) dependem fortemente de grandes conjuntos de dados e arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode atingir milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que utiliza um modelo básico reutilizável, é geralmente baseado em modelos de código aberto como LLaMA, Mistral e DeepSeek, combinando uma pequena quantidade de dados especializados de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente os custos de treinamento e as barreiras técnicas.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim funcionará em colaboração com o LLM através da arquitetura Agent, roteamento dinâmico do sistema de plugins, a inserção a quente de módulos LoRA e RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema de inteligência combinatória altamente flexível.
O valor e os limites da Crypto AI na camada do modelo
Os projetos de IA Crypto, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem grande (LLM), sendo a razão principal
No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender o valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se manifesta em duas direções principais:
Classificação de Tipos de Modelos de IA e Análise da Aplicabilidade da Blockchain
Como podemos ver, os pontos de viabilidade dos projetos de Crypto AI da classe de modelos estão principalmente concentrados na leve afinação de pequenos SLM, na integração e validação de dados on-chain da arquitetura RAG, e na implementação local e incentivo dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios a baixos, formando um valor diferenciado na "camada de interface" da AI.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem da contribuição de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, por meio do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são utilizados, transformando o comportamento da IA em valor tokenizado mensurável e comercializável, criando um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo por meio de votação com tokens, participar da formulação e iteração de regras, aperfeiçoando a estrutura de governança descentralizada.
II. Visão Geral do Projeto | A Visão da Cadeia de IA da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de funcionamento de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem ganhos em cadeia com base em suas contribuições reais.
OpenLedger oferece um ciclo completo de cadeia que vai desde a "fornecimento de dados" até a "implantação de modelos" e "chamada de divisão de lucros", com seus módulos principais incluindo:
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura económica de agentes inteligentes" baseada em dados e com modelos combináveis, promovendo a on-chain da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Comparado a uma blockchain pública que é mais voltada para a camada base, focando na soberania dos dados e na arquitetura de "AI Agents on BOS", o OpenLedger se concentra mais na construção de uma blockchain específica para IA voltada para a motivação de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos rastreáveis, combináveis e sustentáveis em um ciclo de valor. É uma infraestrutura de motivação de modelos no mundo Web3, combinando o armazenamento de modelos semelhante a uma plataforma de hospedagem de modelos, a cobrança de uso semelhante a uma plataforma de pagamento e interfaces combináveis na blockchain semelhantes a serviços de infraestrutura, impulsionando o caminho para a realização de "modelos como ativos".
Três, os componentes principais e a arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) dentro do ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica puramente operacional, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar os modelos com base em conjuntos de dados que foram autorizados e auditados na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:
A arquitetura do sistema Model Factory contém seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implementação, e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura e controlável, com interação em tempo real e monetização sustentável.
O resumo das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é o seguinte:
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam em uma configuração "prática em primeiro lugar".
Model Factory como uma cadeia de ferramentas sem código, todos os modelos possuem um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuidores de dados e desenvolvedores de modelos, apresentando vantagens de baixa barreira, monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
3.2 OpenLoRA, a assetização on-chain do modelo de ajuste fino
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste de parâmetros que aprende novas tarefas ao inserir "matrizes de baixa rank" em um modelo grande pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até centenas de bilhões de parâmetros. Para usá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar o ajuste fino (fine-tuning). A estratégia central do LoRA é: "congelar os parâmetros do modelo grande original, apenas treinar as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-o o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3 atualmente.
OpenLoRA é uma estrutura leve de inferência projetada pela OpenLedger, especialmente para o deploy de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução de "IA Pagável".
Componentes principais da arquitetura do sistema OpenLoRA, baseados em design modular, abrangendo armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, alcançando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo: