OpenLedger Kedalaman Riset: Membangun Ekonomi Agen yang Didorong Data dan Dapat Dikombinasikan Modelnya dengan OP Stack+EigenDA sebagai Dasar
I. Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang dapat dis类比 sebagai bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga mengalami tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi ( platform komputasi GPU tertentu, platform rendering tertentu, platform jaringan tertentu, dan sebagainya ), yang secara umum menekankan logika pertumbuhan kasar "menggabungkan daya komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap bergeser ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter mencapai 70B hingga 500B, dan biaya pelatihan sekali bisa mencapai jutaan dolar. Sedangkan SLM (Model Bahasa Khusus) sebagai paradigma penyetelan ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, menggabungkan sejumlah kecil data profesional berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, tetapi beroperasi secara kolaboratif dengan LLM melalui arsitektur Agen, sistem plugin yang melakukan routing dinamis, modul LoRA yang dapat dipasang dan dilepas dengan cepat, dan RAG (Generasi yang Ditingkatkan dengan Pencarian). Arsitektur ini mempertahankan kemampuan cakupan luas LLM, sekaligus meningkatkan kinerja profesional melalui modul fine-tuning, membentuk sistem cerdas kombinasi yang sangat fleksibel.
Nilai dan batas Crypto AI di lapisan model
Proyek AI crypto pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti model bahasa besar (LLM), alasan utamanya adalah
Hambatan teknis terlalu tinggi: Skala data, sumber daya komputasi, dan kemampuan rekayasa yang diperlukan untuk melatih Model Dasar sangat besar, saat ini hanya ada raksasa teknologi seperti Amerika Serikat (beberapa perusahaan AI, dll.) dan China (beberapa perusahaan pembelajaran mendalam, dll.) yang memiliki kemampuan yang sesuai.
Keterbatasan ekosistem sumber terbuka: Meskipun model dasar utama seperti LLaMA, Mixtral telah open source, kunci untuk mendorong terobosan model masih terfokus pada lembaga penelitian dan sistem rekayasa tertutup, proyek berbasis blockchain memiliki ruang partisipasi yang terbatas di tingkat model inti.
Namun, di atas model dasar sumber terbuka, proyek Crypto AI masih dapat memperluas nilai melalui penyesuaian model bahasa khusus (SLM) dan menggabungkannya dengan verifikasi dan mekanisme insentif Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, hal ini tercermin dalam dua arah inti:
Lapisan Verifikasi Tepercaya: Meningkatkan keterlacakan dan ketahanan terhadap manipulasi dari output AI dengan merekam jalur generasi model, kontribusi data, dan penggunaan di atas rantai.
Mekanisme insentif: Dengan memanfaatkan Token asli, untuk mendorong perilaku seperti pengunggahan data, pemanggilan model, dan pelaksanaan agen, membangun siklus positif pelatihan dan layanan model.
Klasifikasi Tipe Model AI dan Analisis Kelayakan Blockchain
Dari sini dapat dilihat bahwa titik fokus yang layak dari proyek Crypto AI jenis model terutama terletak pada penyesuaian ringan SLM kecil, akses dan verifikasi data on-chain dari arsitektur RAG, serta penyebaran lokal dan insentif model Edge. Dengan menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah hingga rendah ini, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI chain berbasis data dan model dapat melakukan pencatatan yang jelas dan tidak dapat diubah untuk setiap sumber kontribusi data dan model, secara signifikan meningkatkan kepercayaan data dan jejak pelatihan model. Selain itu, melalui mekanisme kontrak pintar, penghargaan akan secara otomatis dipicu saat data atau model dipanggil, mengubah perilaku AI menjadi nilai tokenisasi yang terukur dan dapat diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat mengevaluasi kinerja model melalui pemungutan suara token, berpartisipasi dalam perumusan dan iterasi aturan, serta menyempurnakan kerangka tata kelola terdesentralisasi.
Dua, Gambaran Proyek | Visi Rantai AI OpenLedger
OpenLedger adalah salah satu dari sedikit proyek blockchain AI yang berfokus pada mekanisme insentif data dan model di pasar saat ini. Ini adalah yang pertama kali mengusulkan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat digabungkan, untuk mendorong kontribusi data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama, dan mendapatkan keuntungan di blockchain berdasarkan kontribusi nyata.
OpenLedger menyediakan rantai tertutup penuh dari "penyediaan data" hingga "penempatan model" dan kemudian "memanggil pembagian keuntungan", dengan modul inti yang mencakup:
Model Factory: Tanpa perlu pemrograman, Anda dapat menggunakan LoRA untuk melatih dan menerapkan model kustom berdasarkan LLM open-source;
OpenLoRA: mendukung koeksistensi ribuan model, memuat secara dinamis sesuai kebutuhan, secara signifikan mengurangi biaya penerapan;
PoA (Proof of Attribution): Mengukur kontribusi dan distribusi hadiah melalui pencatatan panggilan di blockchain;
Datanets: Jaringan data terstruktur yang ditujukan untuk skenario vertikal, dibangun dan divalidasi melalui kolaborasi komunitas;
Platform Usulan Model (Model Proposal Platform): Pasar model on-chain yang dapat digabungkan, dipanggil, dan dibayar.
Melalui modul di atas, OpenLedger telah membangun "infrastruktur ekonomi agen cerdas" yang berbasis data dan dapat dikombinasikan, mendorong on-chain-nya rantai nilai AI.
Sedangkan dalam adopsi teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibangun di atas OP Stack: Berdasarkan tumpukan teknologi Optimism, mendukung throughput tinggi dan biaya rendah dalam eksekusi;
Menyelesaikan di jaringan utama Ethereum: Memastikan keamanan transaksi dan integritas aset;
Kompatibel dengan EVM: Memudahkan pengembang untuk dengan cepat mengembangkan dan memperluas berdasarkan Solidity;
EigenDA menyediakan dukungan ketersediaan data: secara signifikan mengurangi biaya penyimpanan, menjamin verifikasi data.
Dibandingkan dengan blockchain publik tertentu yang lebih fokus pada lapisan dasar, menekankan pada kedaulatan data dan arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan blockchain khusus AI yang ditujukan untuk insentif data dan model, bertujuan untuk membuat pengembangan dan pemanggilan model di blockchain dapat dilacak, dapat dikombinasikan, dan menciptakan siklus nilai yang berkelanjutan. Ini adalah infrastruktur insentif model dalam dunia Web3, menggabungkan platform pengelolaan model seperti layanan pengelolaan model tertentu, penagihan penggunaan seperti platform pembayaran tertentu, dan antarmuka kombinasi di blockchain seperti layanan infrastruktur tertentu, mendorong jalur realisasi "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
Pabrik Model 3.1, pabrik model tanpa kode
ModelFactory adalah platform penyetelan model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka penyetelan tradisional, ModelFactory menyediakan antarmuka grafis murni, tanpa perlu alat baris perintah atau integrasi API. Pengguna dapat menyetel model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti yang mencakup:
Kontrol akses data: Pengguna mengajukan permintaan data, penyedia meninjau dan menyetujui, data otomatis terhubung ke antarmuka pelatihan model.
Pemilihan dan konfigurasi model: Mendukung LLM utama (seperti LLaMA, Mistral), melalui GUI untuk mengonfigurasi hyperparameter.
Penyesuaian ringan: Mesin LoRA / QLoRA bawaan, menampilkan kemajuan pelatihan secara real-time.
Evaluasi dan Penempatan Model: Alat evaluasi bawaan, mendukung ekspor penempatan atau panggilan berbagi ekosistem.
Antarmuka verifikasi interaktif: Menyediakan antarmuka berbasis obrolan, memudahkan pengujian langsung kemampuan tanya jawab model.
RAG menghasilkan jejak: Menjawab dengan kutipan sumber, meningkatkan kepercayaan dan dapat diaudit.
Arsitektur sistem Model Factory terdiri dari enam modul, mencakup otentikasi identitas, hak akses data, penyesuaian model, evaluasi penyebaran, dan pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman, terkontrol, interaktif secara real-time, dan dapat menghasilkan pendapatan secara berkelanjutan.
Tabel kemampuan model bahasa besar yang saat ini didukung oleh ModelFactory adalah sebagai berikut:
LLaMA Series: Ekosistem yang paling luas, komunitas yang aktif, dan kinerja umum yang kuat, adalah salah satu model dasar sumber terbuka yang paling utama saat ini.
Mistral: Arsitektur yang efisien, kinerja inferensi yang sangat baik, cocok untuk skenario yang fleksibel dan sumber daya terbatas.
Qwen: Produk dari raksasa teknologi tertentu, kinerja tugas dalam bahasa Mandarin sangat baik, kemampuan komprehensif yang kuat, cocok untuk pilihan utama pengembang dalam negeri.
ChatGLM: Efek percakapan dalam bahasa Mandarin sangat menonjol, cocok untuk layanan pelanggan khusus dan skenario lokal.
Deepseek: Unggul dalam pengembangan kode dan penalaran matematis, cocok untuk alat bantu pengembangan cerdas.
Gemma: Model ringan yang diluncurkan oleh salah satu raksasa teknologi, dengan struktur yang jelas, mudah untuk dipelajari dan dieksplorasi.
Falcon: Pernah menjadi tolok ukur kinerja, cocok untuk penelitian dasar atau pengujian perbandingan, tetapi aktivitas komunitas telah berkurang.
BLOOM: Dukungan multi-bahasa yang kuat, tetapi kinerja inferensi yang lemah, cocok untuk penelitian yang mencakup bahasa.
GPT-2: Model klasik awal, hanya cocok untuk tujuan pengajaran dan verifikasi, tidak disarankan untuk penggunaan penyebaran nyata.
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "utamakan praktis" yang dibuat berdasarkan batasan realitas yang diterapkan di blockchain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki keunggulan ambang rendah, dapat dimonetisasi dan dapat digabungkan, dibandingkan dengan alat pengembangan model tradisional:
Untuk pengembang: Menyediakan jalur lengkap untuk inkubasi model, distribusi, dan pendapatan;
Untuk platform: membentuk aliran aset model dan ekosistem kombinasi;
Untuk pengguna: Anda dapat menggabungkan model atau Agen seperti memanggil API.
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, yang mempelajari tugas baru dengan menyisipkan "matriks peringkat rendah" ke dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan." Metode ini efisien dalam parameter, pelatihan cepat, dan penerapan fleksibel, sehingga merupakan metode penyesuaian utama yang paling cocok untuk penerapan dan panggilan kombinasi model Web3 saat ini.
OpenLoRA adalah kerangka inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya penggunaan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan, dan aspek kunci lainnya, untuk mewujudkan kemampuan penerapan dan pemanggilan banyak model yang efisien dan berbiaya rendah:
Modul Penyimpanan LoRA Adapter (LoRA Adapters Storage): LoRA adapter yang telah disesuaikan dihosting di OpenLedger, memungkinkan pemuatan sesuai permintaan, menghindari pemuatan semua model ke dalam memori video, menghemat sumber daya.
Model Hosting dan Layer Penggabungan Adapter (Model Hosting & Adapter Merging Layer): Semua model fine-tuning berbagi model dasar (base model), saat inferensi LoRA adapter
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
9 Suka
Hadiah
9
7
Bagikan
Komentar
0/400
ImpermanentSage
· 18jam yang lalu
Jangan berpura-pura lagi, ini hanya trik untuk Daya Komputasi.
Lihat AsliBalas0
FloorSweeper
· 23jam yang lalu
Terlalu kompetitif, bahkan lebih dari programmer
Lihat AsliBalas0
SighingCashier
· 23jam yang lalu
Haha, ini kok mirip dengan yang kamu bagikan beberapa hari yang lalu.
Lihat AsliBalas0
ZenZKPlayer
· 23jam yang lalu
Sekali lagi mengembangkan agen pintar, cinta sekali!
Lihat AsliBalas0
GamefiEscapeArtist
· 23jam yang lalu
Hanya mencari perhatian saja
Lihat AsliBalas0
SilentObserver
· 23jam yang lalu
Tetap saja, Daya Komputasi adalah yang paling menarik.
OpenLedger membangun model berbasis data yang dapat dikombinasikan dengan AI Chain berdasarkan OP Stack dan EigenDA
OpenLedger Kedalaman Riset: Membangun Ekonomi Agen yang Didorong Data dan Dapat Dikombinasikan Modelnya dengan OP Stack+EigenDA sebagai Dasar
I. Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang dapat dis类比 sebagai bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga mengalami tahap yang serupa. Pada awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi ( platform komputasi GPU tertentu, platform rendering tertentu, platform jaringan tertentu, dan sebagainya ), yang secara umum menekankan logika pertumbuhan kasar "menggabungkan daya komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap bergeser ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter mencapai 70B hingga 500B, dan biaya pelatihan sekali bisa mencapai jutaan dolar. Sedangkan SLM (Model Bahasa Khusus) sebagai paradigma penyetelan ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, menggabungkan sejumlah kecil data profesional berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, tetapi beroperasi secara kolaboratif dengan LLM melalui arsitektur Agen, sistem plugin yang melakukan routing dinamis, modul LoRA yang dapat dipasang dan dilepas dengan cepat, dan RAG (Generasi yang Ditingkatkan dengan Pencarian). Arsitektur ini mempertahankan kemampuan cakupan luas LLM, sekaligus meningkatkan kinerja profesional melalui modul fine-tuning, membentuk sistem cerdas kombinasi yang sangat fleksibel.
Nilai dan batas Crypto AI di lapisan model
Proyek AI crypto pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti model bahasa besar (LLM), alasan utamanya adalah
Namun, di atas model dasar sumber terbuka, proyek Crypto AI masih dapat memperluas nilai melalui penyesuaian model bahasa khusus (SLM) dan menggabungkannya dengan verifikasi dan mekanisme insentif Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, hal ini tercermin dalam dua arah inti:
Klasifikasi Tipe Model AI dan Analisis Kelayakan Blockchain
Dari sini dapat dilihat bahwa titik fokus yang layak dari proyek Crypto AI jenis model terutama terletak pada penyesuaian ringan SLM kecil, akses dan verifikasi data on-chain dari arsitektur RAG, serta penyebaran lokal dan insentif model Edge. Dengan menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model sumber daya menengah hingga rendah ini, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI chain berbasis data dan model dapat melakukan pencatatan yang jelas dan tidak dapat diubah untuk setiap sumber kontribusi data dan model, secara signifikan meningkatkan kepercayaan data dan jejak pelatihan model. Selain itu, melalui mekanisme kontrak pintar, penghargaan akan secara otomatis dipicu saat data atau model dipanggil, mengubah perilaku AI menjadi nilai tokenisasi yang terukur dan dapat diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat mengevaluasi kinerja model melalui pemungutan suara token, berpartisipasi dalam perumusan dan iterasi aturan, serta menyempurnakan kerangka tata kelola terdesentralisasi.
Dua, Gambaran Proyek | Visi Rantai AI OpenLedger
OpenLedger adalah salah satu dari sedikit proyek blockchain AI yang berfokus pada mekanisme insentif data dan model di pasar saat ini. Ini adalah yang pertama kali mengusulkan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasi AI yang adil, transparan, dan dapat digabungkan, untuk mendorong kontribusi data, pengembang model, dan pembangun aplikasi AI untuk berkolaborasi di platform yang sama, dan mendapatkan keuntungan di blockchain berdasarkan kontribusi nyata.
OpenLedger menyediakan rantai tertutup penuh dari "penyediaan data" hingga "penempatan model" dan kemudian "memanggil pembagian keuntungan", dengan modul inti yang mencakup:
Melalui modul di atas, OpenLedger telah membangun "infrastruktur ekonomi agen cerdas" yang berbasis data dan dapat dikombinasikan, mendorong on-chain-nya rantai nilai AI.
Sedangkan dalam adopsi teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibandingkan dengan blockchain publik tertentu yang lebih fokus pada lapisan dasar, menekankan pada kedaulatan data dan arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan blockchain khusus AI yang ditujukan untuk insentif data dan model, bertujuan untuk membuat pengembangan dan pemanggilan model di blockchain dapat dilacak, dapat dikombinasikan, dan menciptakan siklus nilai yang berkelanjutan. Ini adalah infrastruktur insentif model dalam dunia Web3, menggabungkan platform pengelolaan model seperti layanan pengelolaan model tertentu, penagihan penggunaan seperti platform pembayaran tertentu, dan antarmuka kombinasi di blockchain seperti layanan infrastruktur tertentu, mendorong jalur realisasi "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
Pabrik Model 3.1, pabrik model tanpa kode
ModelFactory adalah platform penyetelan model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka penyetelan tradisional, ModelFactory menyediakan antarmuka grafis murni, tanpa perlu alat baris perintah atau integrasi API. Pengguna dapat menyetel model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti yang mencakup:
Arsitektur sistem Model Factory terdiri dari enam modul, mencakup otentikasi identitas, hak akses data, penyesuaian model, evaluasi penyebaran, dan pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman, terkontrol, interaktif secara real-time, dan dapat menghasilkan pendapatan secara berkelanjutan.
Tabel kemampuan model bahasa besar yang saat ini didukung oleh ModelFactory adalah sebagai berikut:
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "utamakan praktis" yang dibuat berdasarkan batasan realitas yang diterapkan di blockchain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki keunggulan ambang rendah, dapat dimonetisasi dan dapat digabungkan, dibandingkan dengan alat pengembangan model tradisional:
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, yang mempelajari tugas baru dengan menyisipkan "matriks peringkat rendah" ke dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan." Metode ini efisien dalam parameter, pelatihan cepat, dan penerapan fleksibel, sehingga merupakan metode penyesuaian utama yang paling cocok untuk penerapan dan panggilan kombinasi model Web3 saat ini.
OpenLoRA adalah kerangka inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya penggunaan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan, dan aspek kunci lainnya, untuk mewujudkan kemampuan penerapan dan pemanggilan banyak model yang efisien dan berbiaya rendah: