OpenLedger будує модель на основі даних для комбінованого AI-ланцюга на базі OP Stack та EigenDA

OpenLedger Глибина дослідження: на основі OP Stack + EigenDA, створення економіки інтелектуальних агентів, що керується даними та має можливість комбінування моделей

Один. Вступ | Переход моделей Crypto AI

Дані, моделі та обчислювальні потужності є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (моделі) та енергії (обчислювальні потужності) - кожен з них є невід'ємним. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, область Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок на деякий час був під контролем децентралізованих GPU проектів ( деяка платформа для обчислень на GPU, деяка рендерингова платформа, деяка мережна платформа тощо ), зазвичай підкреслюючи логіку грубого зростання "拼算力". А вже з 2025 року увага галузі поступово зміщувалася до рівня моделей і даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного для застосування середнього рівня побудови.

Загальний великий модель (LLM) проти спеціалізованої моделі (SLM)

Традиційні великі мовні моделі (LLM) сильно залежать від великих наборів даних і складних розподілених архітектур, обсяг параметрів коливається від 70B до 500B, а вартість одного навчання часто досягає кількох мільйонів доларів. У той же час SLM (Спеціалізована мовна модель) як легка парадигма тонкої настройки повторно використовуваної базової моделі зазвичай базується на відкритих моделях, таких як LLaMA, Mistral, DeepSeek, в поєднанні з невеликою кількістю якісних спеціалізованих даних і такими технологіями, як LoRA, швидко створює експертні моделі, що мають специфічні знання в певній області, значно знижуючи витрати на навчання та технологічні бар'єри.

Варто зазначити, що SLM не інтегрується в ваги LLM, а взаємодіє з LLM через виклики архітектури Agent, динамічну маршрутизацію через систему плагінів, гаряче підключення модулів LoRA, RAG (підсилене генерування шляхом пошуку) тощо. Ця архітектура зберігає широку покриття LLM, одночасно підсилюючи спеціалізовану продуктивність за допомогою модулів тонкої настройки, формуючи високо гнучку комбіновану інтелектуальну систему.

Crypto AI вартість і межі на рівні моделей

Проекти Crypto AI по суті важко безпосередньо покращити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,

  • Технічний бар'єр занадто високий: масштаб даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, наразі лише США (деякі AI компанії тощо) та Китай (деякі компанії з глибокого навчання тощо) мають відповідні можливості.
  • Обмеження відкритої екосистеми: хоча основні базові моделі, такі як LLaMA, Mixtral, вже відкриті, справжній прорив у моделях все ще зосереджений на наукових установах та закритих інженерних системах, а участь блокчейн-проектів на рівні основних моделей обмежена.

Однак, на основі відкритих базових моделей проект Crypto AI все ще може реалізувати розширення вартості через тонке налаштування спеціалізованих мовних моделей (SLM) та поєднання з верифікацією та механізмами стимулювання Web3. Як «периферійний інтерфейс» в індустрії AI, це виявляється в двох основних напрямках:

  • Достовірний верифікаційний шар: завдяки записам в ланцюзі про шлях генерації моделей, внесок даних та їх використання, посилюється відстежуваність та захист AI-виходу від підробки.
  • Механізм стимулювання: за допомогою рідного токена для стимулювання завантаження даних, виклику моделей, виконання агентів (Agent) тощо, створення позитивного циклу навчання моделей і надання послуг.

Класифікація типів AI моделей та аналіз їх застосовності в блокчейні

З цього видно, що можливі точки застосування моделей типу Crypto AI в основному зосереджені на легкій налаштуванні малих SLM, підключенні та верифікації даних на блокчейні за архітектурою RAG, а також на локальному розгортанні та стимулюванні Edge моделей. Поєднуючи верифікацію блокчейну та токенну механіку, Crypto може надати унікальну цінність для цих сценаріїв моделей з середніми та низькими ресурсами, формуючи диференційовану цінність «інтерфейсного шару» AI.

Блокчейн AI ланцюг на основі даних і моделей дозволяє здійснювати чітке, незмінне записування на блокчейн джерел внесків для кожного даних і моделі, що значно підвищує довіру до даних і відстежуваність навчання моделей. Водночас, завдяки механізму смарт-контрактів, при виклику даних або моделі автоматично ініціюється розподіл винагород, перетворюючи поведінку AI на вимірювану, торгівельну токенізовану цінність, що створює стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей, голосуючи токенами, брати участь у розробці правил та ітераціях, вдосконалюючи децентралізовану структуру управління.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, огляд проекту | Візія AI-ланцюга OpenLedger

OpenLedger є одним з небагатьох блокчейн AI проектів на сьогоднішньому ринку, який зосереджений на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію «Payable AI», яка має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, щоб заохочувати внесок даних, розробників моделей та творців AI-додатків співпрацювати на одній платформі та отримувати доходи на основі фактичного внеску.

OpenLedger надає повний ланцюг закритого циклу від «надання даних» до «впровадження моделей» і «виклику розподілу прибутків», його основні модулі включають:

  • Модельна фабрика: без програмування можна використовувати LoRA для тонкого налаштування, навчання та розгортання кастомізованих моделей на основі відкритого LLM;
  • OpenLoRA: підтримка спільного існування тисячі моделей, динамічна завантаження за потребою, що суттєво знижує витрати на розгортання;
  • PoA (Proof of Attribution): реалізація вимірювання внеску та розподілу винагород через записи викликів в блокчейні;
  • Datanets: структуровані мережі даних, спрямовані на вертикальні сценарії, які будуються та перевіряються спільнотою;
  • Платформа пропозицій моделей (Model Proposal Platform): комбіновані, викликові, платіжні ринкові моделі на базі блокчейну.

За допомогою вищезгаданих модулів OpenLedger створила «інфраструктуру економіки агентів», що базується на даних і є комбінованою моделлю, яка сприяє онлайнізації ціннісного ланцюга AI.

А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу для створення високопродуктивного, низьковартісного та перевіряємого середовища для виконання даних та контрактів для AI моделей.

  • Побудовано на OP Stack: базується на технологічному стеку Optimism, підтримує високу пропускну здатність і низькі витрати на виконання;
  • Розрахунок в основній мережі Ethereum: Забезпечення безпеки транзакцій та цілісності активів;
  • EVM сумісність: зручність для розробників швидко розгортати та розширювати на основі Solidity;
  • EigenDA надає підтримку доступності даних: значно знижує витрати на зберігання, забезпечує перевірність даних.

Порівняно з деякими публічними блокчейнами, які більше орієнтовані на базовий рівень, акцентуючи увагу на суверенітеті даних та архітектурі «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованих блокчейнів для штучного інтелекту, які стимулюють дані та моделі, прагнучи забезпечити розробку та виклик моделей з можливістю відстеження, комбінування та сталого ціннісного циклу. Це інфраструктура стимулювання моделей у світі Web3, яка поєднує в собі платформи для хостингу моделей, подібні до певних платформ для хостингу моделей, платформи для обліку використання, подібні до певних платіжних платформ, і комбіновані інтерфейси на блокчейні, подібні до певних інфраструктурних сервісів, просуваючи шлях реалізації «модель як актив».

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Три, основні компоненти та технологічна архітектура OpenLedger

3.1 Модельний завод, безкодова модельна фабрика

ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory пропонує чисто графічний інтерфейс без необхідності використання командного рядка або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі даних, які були авторизовані та перевірені в OpenLedger. Реалізовано інтегрований робочий процес, що включає авторизацію даних, навчання моделей та їх розгортання; основні етапи цього процесу включають:

  • Контроль доступу до даних: Користувач подає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір та налаштування моделі: підтримує основні LLM (такі як LLaMA, Mistral), налаштування гіперпараметрів через GUI.
  • Легке налаштування: вбудований двигун LoRA / QLoRA, що в реальному часі демонструє прогрес навчання.
  • Оцінка та розгортання моделей: Вбудовані інструменти оцінки, підтримка експорту для розгортання або спільного використання в екосистемі.
  • Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, що полегшує безпосереднє тестування здатності моделі до запитань і відповідей.
  • Генерація RAG з відстеженням: відповіді з посиланнями на джерела, підвищують довіру та можливість аудиту.

Система архітектури Model Factory включає шість основних модулів, які охоплюють ідентифікацію, права доступу до даних, мікронастройку моделей, оцінку впровадження та RAG трасування, створюючи безпечну та контрольовану, реальну взаємодію та стійку монетизацію єдиної платформи модульних послуг.

Модельний завод наразі підтримує такі можливості великих мовних моделей:

  • Серія LLaMA: найбільша екосистема, активна спільнота, потужні загальні характеристики, є однією з найпоширеніших відкритих базових моделей на сьогодні.
  • Mistral: архітектура ефективна, продуктивність висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: продукт певного технологічного гіганта, відмінно показує себе в китайських завданнях, має сильні загальні можливості, підходить для вибору вітчизняними розробниками.
  • ChatGLM: Вражаючий ефект китайського діалогу, підходить для вертикального обслуговування клієнтів та локалізованих сценаріїв.
  • Deepseek: Відзначається перевагою в генерації коду та математичному міркуванні, підходить для інструментів підтримки розумної розробки.
  • Gemma: Легка модель, випущена одним з технологічних гігантів, з чіткою структурою, легка для швидкого освоєння та експериментів.
  • Falcon: колись був еталоном продуктивності, підходить для базових досліджень або порівняльного тестування, але активність спільноти зменшилася.
  • BLOOM: має сильну підтримку багатьох мов, але продуктивність в інференції слабша, підходить для досліджень з охоплення мов.
  • GPT-2: класична рання модель, призначена лише для навчання та перевірки, не рекомендується для реального розгортання.

Хоча комбінація моделей OpenLedger не включає новітні високопродуктивні моделі MoE або мультимодальні моделі, її стратегія не застаріла, а базується на реальних обмеженнях, пов'язаних з розгортанням на ланцюгу (витрати на інференс, адаптація RAG, сумісність LoRA, середовище EVM), що призвело до «практичного пріоритету» у конфігурації.

Model Factory як безкодовий інструмент, всі моделі мають вбудований механізм підтвердження внеску, що забезпечує права внесників даних та розробників моделей, має низький бар'єр, можливість монетизації та комбінування, у порівнянні з традиційними інструментами розробки моделей:

  • Для розробників: надання повного шляху до інкубації, розподілу та доходів моделі;
  • Для платформи: формування моделі обігу активів і комбінованої екосистеми;
  • Для користувачів: ви можете комбінувати моделі або агенти так само, як викликаєте API.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)

3.2 OpenLoRA, активізація ончейн-активів моделі доопрацювання

LoRA (Low-Rank Adaptation) є ефективним методом доопрацювання параметрів, який навчає нові завдання шляхом вставлення «низькорангових матриць» у попередньо навчальні великі моделі, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для специфічних завдань (наприклад, юридичних запитів, медичних консультацій), необхідно провести доопрацювання (fine-tuning). Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише вставлені нові параметричні матриці». Її параметри є ефективними, навчання швидким, а впровадження гнучким, що робить її найкращим методом доопрацювання для впровадження та комбінації викликів моделей Web3.

OpenLoRA - це легка інфраструктура для інференсу, спеціально розроблена OpenLedger для розгортання багатьох моделей та спільного використання ресурсів. Її основна мета - вирішити поширені проблеми розгортання AI моделей, такі як високі витрати, низька повторна використання та марнотратство ресурсів GPU, сприяючи реалізації «платного AI» (Payable AI).

OpenLoRA система архітектури основних компонентів, основана на модульному дизайні, охоплює зберігання моделей, виконання висновків, маршрутизацію запитів та інші ключові етапи, реалізуючи ефективні, низьковартісні можливості для розгортання та виклику декількох моделей:

  • Модуль зберігання LoRA адаптерів (LoRA Adapters Storage): Налаштований LoRA адаптер розміщується на OpenLedger, реалізуючи завантаження за запитом, уникаючи попереднього завантаження всіх моделей у відеопам'ять, економлячи ресурси.
  • Модельне хостинг та динамічний шар злиття (Model Hosting & Adapter Merging Layer): всі моделі тонкого налаштування використовують базову велику модель (base model), під час інференції LoRA адаптер.
OP2.61%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 7
  • Поділіться
Прокоментувати
0/400
ImpermanentSagevip
· 8год тому
Не прикидайтеся, це знову трюк з обчислювальною потужністю.
Переглянути оригіналвідповісти на0
FloorSweepervip
· 12год тому
Занадто багато, навіть більше, ніж програміст.
Переглянути оригіналвідповісти на0
SighingCashiervip
· 12год тому
Ха-ха, чому це виглядає так само, як те, що ти ділився кілька днів тому?
Переглянути оригіналвідповісти на0
ZenZKPlayervip
· 13год тому
Знову займаються агентами, люблю, люблю
Переглянути оригіналвідповісти на0
GamefiEscapeArtistvip
· 13год тому
Це лише черговий піар.
Переглянути оригіналвідповісти на0
SilentObservervip
· 13год тому
Все ж обчислювальна потужність найкраща
Переглянути оригіналвідповісти на0
MetaverseHermitvip
· 13год тому
AI знову буде обдурювати людей, як лохів
Переглянути оригіналвідповісти на0
  • Закріпити