OpenLedger العمق تقرير بحثي: باستخدام OP Stack + EigenDA كأساس، بناء اقتصاد وكيل مدفوع بالبيانات وقابل للتجميع للنماذج
مقدمة | انتقال نموذج Crypto AI
البيانات والنماذج والحوسبة هي العناصر الثلاثة الأساسية للبنية التحتية للذكاء الاصطناعي، على غرار الوقود (البيانات) والمحرك (النموذج) والطاقة (الحوسبة) التي لا يمكن الاستغناء عنها. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهدت أيضًا مجال الذكاء الاصطناعي في عالم التشفير مراحل مشابهة. في أوائل عام 2024، هيمن السوق لفترة على مشاريع GPU اللامركزية ( منصة حوسبة GPU معينة، منصة عرض معينة، منصة شبكة معينة، إلخ )، حيث تم التأكيد على منطق النمو الواسع "تجميع الحوسبة". ومع الدخول في عام 2025، بدأت نقطة تركيز الصناعة تتجه بشكل تدريجي نحو مستوى النماذج والبيانات، مما يشير إلى أن الذكاء الاصطناعي في عالم التشفير ينتقل من المنافسة على الموارد الأساسية إلى بناء مستوى أكثر استدامة وقيمة تطبيقية.
نموذج كبير شامل (LLM) مقابل نموذج متخصص (SLM)
تدريب نماذج اللغة الكبيرة التقليدية (LLM) يعتمد بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يصل حجم المعلمات إلى 70B~500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى عدة ملايين من الدولارات. بينما يُعتبر SLM (نموذج اللغة المتخصص) كصيغة دقيقة خفيفة وقابلة لإعادة الاستخدام لنموذج أساسي، وعادة ما يعتمد على نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، ويجمع بين كمية قليلة من البيانات الاحترافية عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتاز بمعرفة محددة في مجالات معينة بسرعة، مما يقلل بشكل كبير من تكلفة التدريب والعقبات التقنية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيتم التعاون مع LLM من خلال هيكل Agent، ونظام الإضافات للتوجيه الديناميكي، وإمكانية التوصيل والقطع لنموذج LoRA، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. يحتفظ هذا الهيكل بقدرة LLM الواسعة، بينما يعزز الأداء المهني من خلال وحدات التعديل الدقيق، مما يشكل نظامًا ذكيًا مركبًا عالي المرونة.
قيمة وحدود الذكاء الاصطناعي في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب في جوهرها تعزيز القدرات الأساسية لنموذج اللغة الكبير (LLM) بشكل مباشر، والسبب الجوهري في ذلك هو
العائق التكنولوجي مرتفع للغاية: حجم البيانات، موارد الحوسبة، والقدرات الهندسية اللازمة لتدريب نموذج الأساس ضخمة للغاية، حاليًا فقط الشركات الكبرى في الولايات المتحدة (مثل بعض شركات الذكاء الاصطناعي) والصين (مثل بعض شركات التعلم العميق) تمتلك القدرات المناسبة.
قيود النظام البيئي مفتوح المصدر: على الرغم من أن النماذج الأساسية السائدة مثل LLaMA و Mixtral قد تم فتح مصدرها، إلا أن المفتاح الحقيقي لدفع النموذج نحو النجاح ما زال مركزًا في المؤسسات البحثية ونظم الهندسة المغلقة، حيث أن مساحة المشاركة في المستوى الأساسي للنموذج لمشاريع السلسلة محدودة.
ومع ذلك، فوق نماذج الأساس مفتوحة المصدر، يمكن لمشاريع Crypto AI أن تمتد بالقيمة من خلال ضبط نماذج اللغة المتخصصة (SLM) وت结合 القابلية للتحقق وآليات التحفيز في Web3. ك "طبقة واجهة محيطية" لسلسلة صناعة الذكاء الاصطناعي، تتجسد في اتجاهين رئيسيين:
طبقة التحقق الموثوقة: من خلال تسجيل مسار نموذج الإنتاج، ومساهمات البيانات واستخدامها على السلسلة، تعزز إمكانية تتبع مخرجات الذكاء الاصطناعي ومقاومة التلاعب.
آلية التحفيز: من خلال الرمز الأصلي، يتم استخدامه لتحفيز تحميل البيانات، واستدعاء النماذج، وتنفيذ الوكلاء (Agent) وغيرها من السلوكيات، لبناء دورة إيجابية لتدريب النماذج والخدمات.
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها لتقنية البلوكشين
من هنا يتضح أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع نموذجية تتركز بشكل رئيسي على تحسين خفة SLM الصغيرة، ودمج بيانات السلسلة والتحقق من بنية RAG، بالإضافة إلى النشر المحلي لنموذج Edge والتحفيز. من خلال الجمع بين قابلية التحقق في البلوكشين وآلية الرموز، يمكن لـ Crypto تقديم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة متميزة لطبقة "واجهة" AI.
سلسلة بلوكتشين AI المعتمدة على البيانات والنماذج يمكن أن تسجل بوضوح وبدون تغيير مصدر مساهمة كل بيانات ونماذج، مما يعزز بشكل كبير من موثوقية البيانات وقابلية تتبع تدريب النماذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس وقابلة للتداول، وبالتالي بناء نظام تحفيزي مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النماذج من خلال التصويت بالرموز، والمشاركة في وضع القواعد وتكرارها، مما يُكمل هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
٢. نظرة عامة على المشروع | رؤية سلسلة الذكاء الاصطناعي لـ OpenLedger
OpenLedger هو أحد المشاريع القليلة في سوق blockchain AI التي تركز على تحفيز البيانات والنماذج. وقد اقترح لأول مرة مفهوم "AI القابل للسداد"، والذي يهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على مكاسب على السلسلة بناءً على المساهمات الفعلية.
OpenLedger يوفر سلسلة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم إلى "استدعاء توزيع الأرباح"، تشمل وحداته الأساسية:
مصنع النموذج:لا حاجة للبرمجة، يمكنك استخدام LoRA لضبط وتدريب ونشر نموذج مخصص بناءً على LLM المفتوح المصدر؛
OpenLoRA: يدعم وجود ألف نموذج بشكل متزامن، تحميل ديناميكي حسب الحاجة، مما يقلل بشكل كبير من تكاليف النشر؛
PoA (إثبات النسبة): من خلال استدعاء السلسلة على الإنترنت لتحقيق قياس المساهمة وتوزيع المكافآت؛
Datanets: شبكة بيانات هيكلية موجهة لسيناريوهات قائمة على القطاعات، تم بناؤها والتحقق منها من خلال التعاون المجتمعي؛
منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة قابلة للتجميع، قابلة للاستدعاء، قابلة للدفع.
من خلال الوحدات المذكورة أعلاه، أنشأت OpenLedger "بنية تحتية للاقتصاد الذكي" مدفوعة بالبيانات وقابلة للتجميع، مما يعزز نقل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية blockchain، أنشأت OpenLedger بيئة تشغيل بيانات وعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لبناء نماذج AI باستخدام OP Stack + EigenDA كأساس.
مبني على OP Stack: يعتمد على مجموعة تقنيات Optimism، يدعم تنفيذ عالي الإنتاجية ومنخفض التكلفة؛
التسوية على الشبكة الرئيسية لإيثريوم: ضمان أمان المعاملات وسلامة الأصول؛
متوافقة مع EVM: تسهل على المطورين نشر وتوسيع التطبيقات بسرعة باستخدام Solidity؛
EigenDA توفر دعم توفر البيانات: يقلل بشكل كبير من تكاليف التخزين، ويضمن قابلية التحقق من البيانات.
بالمقارنة مع بلوكشين عام مثل هذا الذي يركز أكثر على البنية التحتية، ويعزز سيادة البيانات مع "عملاء الذكاء الاصطناعي على BOS"، تركز OpenLedger أكثر على بناء سلسلة مخصصة للذكاء الاصطناعي تستهدف تحفيز البيانات والنماذج، وتهدف إلى جعل تطوير واستخدام النماذج قابلاً للتتبع، وقابلاً للتجميع، ومستداماً على السلسلة. إنها بنية تحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج مثل منصة استضافة معينة، والفوترة للاستخدام مثل منصة دفع معينة، وواجهة قابلة للتجميع على السلسلة مثل خدمة بنية تحتية معينة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية و هيكل التقنية لـ OpenLedger
3.1 نموذج المصنع ، نموذج المصنع بدون كود
ModelFactory هو منصة لضبط نماذج اللغة الكبيرة (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر الضبط التقليدية، يوفر ModelFactory واجهة رسومية بالكامل، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج بناءً على مجموعة البيانات المعتمدة والمراجعة التي تم إكمالها على OpenLedger. تم تحقيق سير العمل المتكامل لتفويض البيانات، وتدريب النموذج، والنشر، وتشمل العمليات الأساسية ما يلي:
التحكم في وصول البيانات: يقوم المستخدم بتقديم طلبات البيانات، ويقوم المزود بمراجعة الموافقة، وتتم تلقائيًا إدخال البيانات في واجهة تدريب النموذج.
اختيار النموذج وتكوينه: يدعم LLM الشائع (مثل LLaMA و Mistral)، ويقوم بتكوين المعلمات الفائقة من خلال واجهة المستخدم الرسومية.
التخفيف الخفيف: محرك LoRA / QLoRA المدمج، يعرض تقدم التدريب في الوقت الحقيقي.
تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو استدعاء المشاركة البيئية.
واجهة التحقق التفاعلي: توفر واجهة دردشة، مما يسهل اختبار قدرة نموذج الإجابة على الأسئلة مباشرة.
توليد تتبع RAG: إجابات مع اقتباسات المصدر، تعزز الثقة وقابلية التدقيق.
يتضمن هيكل نظام Model Factory ستة وحدات، تمتد عبر المصادقة على الهوية، أذونات البيانات، ضبط النماذج، تقييم النشر وRAG تتبع المصدر، مما يخلق منصة متكاملة لخدمات النماذج آمنة وقابلة للتحكم، تفاعلية في الوقت الحقيقي، وقابلة للتسييل المستدام.
جدول موجز لقدرات نماذج اللغة الكبيرة المدعومة حاليًا من ModelFactory هو كما يلي:
سلسلة LLaMA: تتمتع بأوسع نظام بيئي، مجتمع نشط، وأداء عام قوي، وهي واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شيوعًا حاليًا.
Mistral: تصميم فعال، أداء استدلال ممتاز، مناسب للنشر في السيناريوهات المرنة وذات الموارد المحدودة.
Qwen: منتج من عملاق تكنولوجي معين، أداء ممتاز في المهام الصينية، قدرة شاملة قوية، مناسب ليكون الخيار الأول للمطورين المحليين.
ChatGLM: تأثير المحادثة باللغة الصينية بارز، مناسب لخدمة العملاء المتخصصة والمشاهد المحلية.
Deepseek: يتمتع بأداء متفوق في توليد الشفرات والاستدلال الرياضي، مناسب لأدوات المساعدة في التطوير الذكي.
Gemma: نموذج خفيف أطلقته إحدى شركات التكنولوجيا الكبرى، هيكله واضح، وسهل الاستخدام والتجريب بسرعة.
فالكون: كان معيار الأداء في السابق، مناسب للأبحاث الأساسية أو اختبارات المقارنة، لكن نشاط المجتمع قد انخفض.
BLOOM: دعم متعدد اللغات قوي، لكن أداء الاستدلال ضعيف، مناسب للأبحاث التي تغطي اللغات.
GPT-2: نموذج كلاسيكي مبكر، مناسب فقط لأغراض التعليم والتحقق، ولا يُوصى باستخدامه في النشر الفعلي.
على الرغم من أن مجموعة نماذج OpenLedger لا تحتوي على أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي عبارة عن تكوين "الأولوية العملية" الذي تم إجراؤه استنادًا إلى القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، تكيف RAG، توافق LoRA، بيئة EVM).
تُعتبر Model Factory كأداة سلسلة بدون كود، حيث تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمتطلبات منخفضة، وقابلية للتسييل والتجميع، مقارنةً بأدوات تطوير النماذج التقليدية:
للمطورين: توفير مسار كامل للنماذج للت incubation, التوزيع, والدخل؛
بالنسبة للمنصة: تشكيل تدفق أصول النموذج ونظام بيئي مركب؛
للمستخدمين: يمكن دمج النماذج أو الوكلاء كما هو الحال عند استدعاء API.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
3.2 OpenLoRA ،资产化 على السلسلة لنموذج التخصيص
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات من خلال إدراج «مصفوفات منخفضة الرتبة» في نموذج كبير مدرب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب واحتياجات التخزين. عادةً ما تحتوي النماذج اللغوية الكبيرة التقليدية (مثل LLaMA و GPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل أسئلة وأجوبة قانونية، الاستشارات الطبية)، يلزم إجراء ضبط (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: «تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفات المعلمات الجديدة المدخلة.»، حيث أن معلماتها فعالة، والتدريب سريع، والنشر مرن، وهي الطريقة الرئيسية الأنسب لنشر نماذج Web3 واستدعاءات التركيب.
OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger ومصمم خصيصًا لنشر نماذج متعددة ومشاركة الموارد. الهدف الرئيسي منه هو حل المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكاليف العالية، وانخفاض إعادة الاستخدام، وإهدار موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع".
OpenLoRA نظام العمق المكونات الأساسية، بناءً على تصميم معياري، تغطي تخزين النموذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من الروابط الرئيسية، لتحقيق نشر واستدعاء متعدد النماذج بكفاءة وتكلفة منخفضة:
وحدة تخزين LoRA Adapter (LoRA Adapters Storage): يتم استضافة LoRA adapter المعدلة في OpenLedger، مما يتيح تحميلها حسب الطلب، ويتجنب تحميل جميع النماذج مسبقًا في ذاكرة الفيديو، مما يوفر الموارد.
استضافة النموذج وطبقة دمج المحولات (Model Hosting & Adapter Merging Layer): جميع نماذج التعديل المشترك تستخدم النموذج الأساسي (base model)، أثناء الاستدلال LoRA adapter
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 9
أعجبني
9
7
مشاركة
تعليق
0/400
ImpermanentSage
· منذ 16 س
لا تتظاهَر، إنها مجرد خدعة لقوة الحوسبة مرة أخرى
شاهد النسخة الأصليةرد0
FloorSweeper
· منذ 21 س
لقد أصبحت المنافسة شديدة، حتى أكثر من مبرمجي الكمبيوتر.
شاهد النسخة الأصليةرد0
SighingCashier
· منذ 21 س
هاها، كيف يبدو هذا مثل ذلك الشيء الذي شاركته معك قبل عدة أيام؟
شاهد النسخة الأصليةرد0
ZenZKPlayer
· منذ 21 س
مرة أخرى في العمل على الذكاء الاصطناعي، أحببت ذلك، أحببت ذلك.
OpenLedger تبني نموذج مدفوع بالبيانات يمكن دمجه في سلسلة الذكاء الاصطناعي بناءً على OP Stack و EigenDA
OpenLedger العمق تقرير بحثي: باستخدام OP Stack + EigenDA كأساس، بناء اقتصاد وكيل مدفوع بالبيانات وقابل للتجميع للنماذج
مقدمة | انتقال نموذج Crypto AI
البيانات والنماذج والحوسبة هي العناصر الثلاثة الأساسية للبنية التحتية للذكاء الاصطناعي، على غرار الوقود (البيانات) والمحرك (النموذج) والطاقة (الحوسبة) التي لا يمكن الاستغناء عنها. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهدت أيضًا مجال الذكاء الاصطناعي في عالم التشفير مراحل مشابهة. في أوائل عام 2024، هيمن السوق لفترة على مشاريع GPU اللامركزية ( منصة حوسبة GPU معينة، منصة عرض معينة، منصة شبكة معينة، إلخ )، حيث تم التأكيد على منطق النمو الواسع "تجميع الحوسبة". ومع الدخول في عام 2025، بدأت نقطة تركيز الصناعة تتجه بشكل تدريجي نحو مستوى النماذج والبيانات، مما يشير إلى أن الذكاء الاصطناعي في عالم التشفير ينتقل من المنافسة على الموارد الأساسية إلى بناء مستوى أكثر استدامة وقيمة تطبيقية.
نموذج كبير شامل (LLM) مقابل نموذج متخصص (SLM)
تدريب نماذج اللغة الكبيرة التقليدية (LLM) يعتمد بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يصل حجم المعلمات إلى 70B~500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى عدة ملايين من الدولارات. بينما يُعتبر SLM (نموذج اللغة المتخصص) كصيغة دقيقة خفيفة وقابلة لإعادة الاستخدام لنموذج أساسي، وعادة ما يعتمد على نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، ويجمع بين كمية قليلة من البيانات الاحترافية عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتاز بمعرفة محددة في مجالات معينة بسرعة، مما يقلل بشكل كبير من تكلفة التدريب والعقبات التقنية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيتم التعاون مع LLM من خلال هيكل Agent، ونظام الإضافات للتوجيه الديناميكي، وإمكانية التوصيل والقطع لنموذج LoRA، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. يحتفظ هذا الهيكل بقدرة LLM الواسعة، بينما يعزز الأداء المهني من خلال وحدات التعديل الدقيق، مما يشكل نظامًا ذكيًا مركبًا عالي المرونة.
قيمة وحدود الذكاء الاصطناعي في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب في جوهرها تعزيز القدرات الأساسية لنموذج اللغة الكبير (LLM) بشكل مباشر، والسبب الجوهري في ذلك هو
ومع ذلك، فوق نماذج الأساس مفتوحة المصدر، يمكن لمشاريع Crypto AI أن تمتد بالقيمة من خلال ضبط نماذج اللغة المتخصصة (SLM) وت结合 القابلية للتحقق وآليات التحفيز في Web3. ك "طبقة واجهة محيطية" لسلسلة صناعة الذكاء الاصطناعي، تتجسد في اتجاهين رئيسيين:
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها لتقنية البلوكشين
من هنا يتضح أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع نموذجية تتركز بشكل رئيسي على تحسين خفة SLM الصغيرة، ودمج بيانات السلسلة والتحقق من بنية RAG، بالإضافة إلى النشر المحلي لنموذج Edge والتحفيز. من خلال الجمع بين قابلية التحقق في البلوكشين وآلية الرموز، يمكن لـ Crypto تقديم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة متميزة لطبقة "واجهة" AI.
سلسلة بلوكتشين AI المعتمدة على البيانات والنماذج يمكن أن تسجل بوضوح وبدون تغيير مصدر مساهمة كل بيانات ونماذج، مما يعزز بشكل كبير من موثوقية البيانات وقابلية تتبع تدريب النماذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس وقابلة للتداول، وبالتالي بناء نظام تحفيزي مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النماذج من خلال التصويت بالرموز، والمشاركة في وضع القواعد وتكرارها، مما يُكمل هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
٢. نظرة عامة على المشروع | رؤية سلسلة الذكاء الاصطناعي لـ OpenLedger
OpenLedger هو أحد المشاريع القليلة في سوق blockchain AI التي تركز على تحفيز البيانات والنماذج. وقد اقترح لأول مرة مفهوم "AI القابل للسداد"، والذي يهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، لتحفيز المساهمين في البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على مكاسب على السلسلة بناءً على المساهمات الفعلية.
OpenLedger يوفر سلسلة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم إلى "استدعاء توزيع الأرباح"، تشمل وحداته الأساسية:
من خلال الوحدات المذكورة أعلاه، أنشأت OpenLedger "بنية تحتية للاقتصاد الذكي" مدفوعة بالبيانات وقابلة للتجميع، مما يعزز نقل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية blockchain، أنشأت OpenLedger بيئة تشغيل بيانات وعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لبناء نماذج AI باستخدام OP Stack + EigenDA كأساس.
بالمقارنة مع بلوكشين عام مثل هذا الذي يركز أكثر على البنية التحتية، ويعزز سيادة البيانات مع "عملاء الذكاء الاصطناعي على BOS"، تركز OpenLedger أكثر على بناء سلسلة مخصصة للذكاء الاصطناعي تستهدف تحفيز البيانات والنماذج، وتهدف إلى جعل تطوير واستخدام النماذج قابلاً للتتبع، وقابلاً للتجميع، ومستداماً على السلسلة. إنها بنية تحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج مثل منصة استضافة معينة، والفوترة للاستخدام مثل منصة دفع معينة، وواجهة قابلة للتجميع على السلسلة مثل خدمة بنية تحتية معينة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية و هيكل التقنية لـ OpenLedger
3.1 نموذج المصنع ، نموذج المصنع بدون كود
ModelFactory هو منصة لضبط نماذج اللغة الكبيرة (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر الضبط التقليدية، يوفر ModelFactory واجهة رسومية بالكامل، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج بناءً على مجموعة البيانات المعتمدة والمراجعة التي تم إكمالها على OpenLedger. تم تحقيق سير العمل المتكامل لتفويض البيانات، وتدريب النموذج، والنشر، وتشمل العمليات الأساسية ما يلي:
يتضمن هيكل نظام Model Factory ستة وحدات، تمتد عبر المصادقة على الهوية، أذونات البيانات، ضبط النماذج، تقييم النشر وRAG تتبع المصدر، مما يخلق منصة متكاملة لخدمات النماذج آمنة وقابلة للتحكم، تفاعلية في الوقت الحقيقي، وقابلة للتسييل المستدام.
جدول موجز لقدرات نماذج اللغة الكبيرة المدعومة حاليًا من ModelFactory هو كما يلي:
على الرغم من أن مجموعة نماذج OpenLedger لا تحتوي على أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي عبارة عن تكوين "الأولوية العملية" الذي تم إجراؤه استنادًا إلى القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، تكيف RAG، توافق LoRA، بيئة EVM).
تُعتبر Model Factory كأداة سلسلة بدون كود، حيث تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، لضمان حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمتطلبات منخفضة، وقابلية للتسييل والتجميع، مقارنةً بأدوات تطوير النماذج التقليدية:
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
3.2 OpenLoRA ،资产化 على السلسلة لنموذج التخصيص
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات من خلال إدراج «مصفوفات منخفضة الرتبة» في نموذج كبير مدرب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب واحتياجات التخزين. عادةً ما تحتوي النماذج اللغوية الكبيرة التقليدية (مثل LLaMA و GPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل أسئلة وأجوبة قانونية، الاستشارات الطبية)، يلزم إجراء ضبط (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: «تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفات المعلمات الجديدة المدخلة.»، حيث أن معلماتها فعالة، والتدريب سريع، والنشر مرن، وهي الطريقة الرئيسية الأنسب لنشر نماذج Web3 واستدعاءات التركيب.
OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger ومصمم خصيصًا لنشر نماذج متعددة ومشاركة الموارد. الهدف الرئيسي منه هو حل المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكاليف العالية، وانخفاض إعادة الاستخدام، وإهدار موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع".
OpenLoRA نظام العمق المكونات الأساسية، بناءً على تصميم معياري، تغطي تخزين النموذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من الروابط الرئيسية، لتحقيق نشر واستدعاء متعدد النماذج بكفاءة وتكلفة منخفضة: