OpenLedgerは、OP StackとEigenDAに基づいて、データ駆動型モデルを構築し、組み合わせ可能なAIチェーンを提供します。

OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデルのコンビネーションが可能なエージェント経済を構築する

一、引言 | Crypto AI のモデルレイヤーの飛躍

データ、モデルと算力はAIインフラストラクチャの三大核心要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)を例にとると欠かせない。従来のAI業界のインフラストラクチャの進化の道筋に似て、Crypto AI領域も同様の段階を経てきた。2024年初頭、市場は一時去中心化GPUプロジェクトに主導され、(某GPU計算プラットフォーム、某レンダリングプラットフォーム、某ネットワークプラットフォームなど)、一般的に「算力を競い合う」という粗放式成長論理を強調した。しかし2025年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AIが底層リソース競争からより持続可能で応用価値のある中層構築へと移行していることを示している。

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)の訓練は、大規模データセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに及び、1回の訓練コストは数百万ドルに達することが常です。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整パラダイムとして、通常はLLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門家モデルを迅速に構築し、訓練コストと技術的ハードルを大幅に低下させます。

注目すべきは、SLMはLLMの重みには統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRAモジュールのホットスワップ、RAG(リトリーバル強化生成)などの方法でLLMと協力して動作することです。このアーキテクチャはLLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟な組み合わせ型インテリジェントシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大規模言語モデル (LLM) のコア能力を直接向上させることが難しい。その核心的な理由は

  • 技術的ハードルが高すぎる:Foundation Modelのトレーニングに必要なデータの規模、計算リソース、エンジニアリング能力は非常に膨大で、現在はアメリカ(某AI企業など)と中国(某デプス学習企業など)などのテクノロジー巨人のみがそれに相応しい能力を持っている。
  • オープンソースエコシステムの限界:LLaMAやMixtralなどの主流基盤モデルはオープンソース化されていますが、モデルのブレークスルーを推進する鍵は依然として研究機関とクローズドソースのエンジニアリングシステムに集中しており、ブロックチェーンプロジェクトはコアモデル層への参加空間が限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AI プロジェクトは特化型言語モデル(SLM)を微調整し、Web3 の検証可能性とインセンティブメカニズムを組み合わせることで価値を拡張することができます。AI 産業チェーンの「周辺インターフェース層」として、2 つのコア方向に現れます:

  • 信頼できる検証層:モデル生成のパス、データの貢献と使用状況をオンチェーンで記録することにより、AIの出力のトレーサビリティと改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを活用して、データのアップロード、モデルの呼び出し、エージェント(Agent)の実行などの行動を奨励し、モデルのトレーニングとサービスの正のサイクルを構築します。

AIモデルタイプ分類とブロックチェーン適用性分析

これからわかるように、モデル型Crypto AIプロジェクトの実現可能な落ち点は、主に小型SLMの軽量化精調、RAGアーキテクチャのチェーン上データの接続と検証、そしてEdgeモデルのローカルデプロイとインセンティブに集中しています。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中小資源モデルのシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献源について明確で改ざん不可能なオンチェーン記録を行い、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。また、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出される際に自動的に報酬分配がトリガーされ、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティのユーザーはトークン投票を通じてモデルのパフォーマンスを評価し、ルールの策定や改訂に参加して、分散型ガバナンス構造を改善することができます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

二、プロジェクト概要 | OpenLedger の AI チェーンビジョン

OpenLedgerは現在市場において数少ないデータとモデルインセンティブメカニズムに焦点を当てたブロックチェーンAIプロジェクトです。彼らは「Payable AI」の概念を初めて提唱し、公平で透明かつコンポーザブルなAI運用環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に応じてチェーン上の収益を得られるようにします。

OpenLedgerは「データ提供」から「モデルデプロイ」そして「呼び出し分配」に至る全チェーンのクローズドループを提供しており、そのコアモジュールには以下が含まれます:

  • モデルファクトリー:プログラミングなしで、オープンソース LLM に基づいて LoRA 微調整トレーニングを行い、カスタムモデルをデプロイできます;
  • OpenLoRA:千モデルの共存をサポートし、必要に応じて動的にロードし、デプロイコストを大幅に削減します;
  • PoA(アトリビューションの証明):オンチェーンコール記録を通じて貢献度の測定と報酬の分配を実現する;
  • Datanets:特定の垂直シーン向けの構造化データネットワークで、コミュニティの協力によって構築および検証されます;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なチェーン上のモデル市場。

上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「エージェント経済インフラ」を構築し、AIのバリューチェーンのオンチェーン化を推進しています。

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータおよび契約実行環境を構築しました。

  • OPスタックに基づく:Optimism技術スタックに基づき、高スループットと低コストの実行をサポート;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM互換:Solidityを基にした迅速なデプロイと拡張を開発者に提供します;
  • EigenDAはデータ可用性のサポートを提供します:ストレージコストを大幅に削減し、データの検証可能性を保証します。

あるパブリックチェーンに比べて、データ主権と「AI Agents on BOS」アーキテクチャを重視する汎用AIチェーンは、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力し、モデルの開発と呼び出しがチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブインフラであり、あるモデルホスティングプラットフォームのモデルホスティング、ある支払いプラットフォームの利用料金、あるインフラサービスのチェーン上の組み合わせ可能なインターフェースを組み合わせ、「モデルは資産」という実現の道筋を推進します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー、コード不要のモデルファクトリー

ModelFactoryはOpenLedgerエコシステム下の大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactoryは純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールやAPI統合は不要です。ユーザーはOpenLedger上で完了した承認と審査のデータセットに基づいてモデルの微調整を行うことができます。データの承認、モデルの訓練、展開の統合ワークフローが実現されており、そのコアプロセスには次のものが含まれます:

  • データアクセス制御:ユーザーがデータリクエストを提出し、提供者が審査・承認し、データが自動的にモデル訓練インターフェースに接続される。
  • モデルの選択と設定: 主流のLLM(LLaMA、Mistralなど)をサポートし、GUIを通じてハイパーパラメータを設定します。
  • 軽量化微調: 内蔵 LoRA / QLoRA エンジン、リアルタイムでトレーニング進捗を表示します。
  • モデル評価とデプロイ: 組み込み評価ツール、エクスポートデプロイまたはエコシステム共有呼び出しをサポート。
  • インタラクティブ検証インターフェース: チャット形式のインターフェースを提供し、モデルの問答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ: 出典引用を伴う回答で、信頼性と監査可能性を強化します。

Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価デプロイメント、RAG トレーサビリティを貫通する6つの主要モジュールで構成されており、安全で制御可能な、リアルタイムインタラクション、持続可能なマネタイズを実現する統合モデルサービスプラットフォームを構築します。

ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:

  • LLaMAシリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性能が高く、現在最も主流のオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟な展開やリソースが限られたシーンに適しています。
  • Qwen:あるテクノロジー大手が製作したもので、中国語のタスクで優れたパフォーマンスを発揮し、総合能力が高く、国内の開発者に最適です。
  • ChatGLM:中国語の対話効果が優れており、特定のカスタマーサービスやローカライズシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れた性能を発揮し、スマート開発支援ツールに適しています。
  • Gemma:あるテクノロジー大手が発表した軽量モデルで、構造が明確で、迅速に取り組んだり実験したりしやすい。
  • Falcon:かつては性能のベンチマークであり、基礎研究や比較テストに適していましたが、コミュニティの活発度は減少しました。
  • BLOOM:多言語サポートが強いが、推論性能は弱めで、言語カバレッジ型の研究に適している。
  • GPT-2:古典的な初期モデルで、教育や検証目的にのみ適しており、実際の展開にはお勧めしません。

OpenLedger のモデルの組み合わせには最新の高性能 MoE モデルやマルチモーダルモデルは含まれていませんが、その戦略は時代遅れではなく、オンチェーンデプロイメントの現実的な制約(推論コスト、RAG 適応、LoRA 互換性、EVM 環境)に基づいた「実用優先」の構成がなされています。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが内蔵されており、データ提供者とモデル開発者の権益を確保します。低いハードル、現金化可能性と組み合わせ可能性の利点を持ち、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルのインキュベーション、配布、収益の完全なパスを提供;
  • プラットフォームに対して:モデル資産の流通と組み合わせのエコシステムを形成する;
  • アプリケーターに対して:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

3.2 OpenLoRA、ファインチューニングモデルのオンチェーン資産化

LoRA(Low-Rank Adaptation)は、高効率なパラメータ微調整方法であり、事前学習された大規模モデルに「低秩行列」を挿入することで新しいタスクを学習し、元のモデルのパラメータを変更することなく、トレーニングコストとストレージ要件を大幅に削減します。従来の大規模言語モデル(例えば、LLaMA、GPT-3)は、通常数十億から千億のパラメータを持っています。特定のタスク(法律に関する質問応答、医療診断など)にそれらを使用するには、微調整(fine-tuning)が必要です。LoRAの核心戦略は:「元の大規模モデルのパラメータを凍結し、新たに挿入されたパラメータ行列のみを訓練する。」であり、そのパラメータ効率、迅速な訓練、柔軟な展開は、現在のWeb3モデルの展開と組み合わせ呼び出しに最も適した主流の微調整方法です。

OpenLoRAは、OpenLedgerによって構築された、マルチモデルのデプロイとリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデルデプロイメントで一般的な高コスト、低再利用、GPUリソースの浪費などの問題を解決し、「可支付 AI」(Payable AI)の実行を推進することです。

OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール化設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデルデプロイおよび呼び出し能力を実現します。

  • LoRAアダプターストレージモジュール (LoRAアダプターのストレージ):微調整されたLoRAアダプターはOpenLedgerにホスティングされており、必要に応じてロードされ、すべてのモデルを事前にVRAMにロードすることを避け、リソースを節約します。
  • モデルホスティングとダイナミックマージングレイヤー (Model Hosting & Adapter Merging Layer):すべてのファインチューニングモデルは基本の大モデル(base model)を共有し、推論時にLoRAアダプタを使用します。
OP7.13%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 7
  • 共有
コメント
0/400
ImpermanentSagevip
· 16時間前
もうやめて、またコンピューティングパワーの話題でしょ。
原文表示返信0
FloorSweepervip
· 21時間前
あまりにも競争が激しい、プログラマーよりも競争が激しい
原文表示返信0
SighingCashiervip
· 21時間前
ハハ、これってあなたが数日前に共有したあれと同じに見えるね
原文表示返信0
ZenZKPlayervip
· 21時間前
またエージェントをやってる 愛してる愛してる
原文表示返信0
GamefiEscapeArtistvip
· 21時間前
ただの話題作りだ
原文表示返信0
SilentObservervip
· 21時間前
やっぱりコンピューティングパワーが一番魅力的だ
原文表示返信0
MetaverseHermitvip
· 21時間前
AI又要来カモにされる了
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)