Proyek Web3 dengan konsep AI menjadi target menarik di pasar primer dan sekunder.
Peluang Web3 di industri AI terletak pada: memanfaatkan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang ( lintas data, penyimpanan, dan komputasi ), sambil membangun model sumber terbuka dan pasar terdesentralisasi untuk AI Agent.
AI di industri Web3 terutama digunakan untuk keuangan on-chain ( pembayaran kripto, perdagangan, analisis data ) serta mendukung pengembangan.
Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 untuk meraih lebih banyak pengguna.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI seolah-olah menekan tombol percepatan, gelombang yang dipicu oleh Chatgpt tidak hanya membuka era baru kecerdasan buatan generatif, tetapi juga mengangkat gelombang besar di bidang Web3.
Di bawah konsep AI, ada peningkatan yang jelas dalam pembiayaan pasar kripto yang melambat. Menurut statistik, hanya pada paruh pertama tahun 2024, terdapat 64 proyek Web3+AI yang berhasil mendapatkan pendanaan, di mana sistem operasi berbasis kecerdasan buatan Zyber365 mendapatkan pendanaan putaran A sebesar 100 juta dolar AS, mencetak rekor tertinggi.
Pasar sekunder semakin berkembang, situs agregator kripto Coingecko menunjukkan bahwa dalam waktu singkat lebih dari satu tahun, total kapitalisasi pasar jalur AI telah mencapai 48,5 miliar USD, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar USD; kemajuan teknologi AI arus utama membawa keuntungan yang jelas, setelah peluncuran model teks ke video Sora dari OpenAI, harga rata-rata sektor AI meningkat 151%; efek AI juga menjalar ke salah satu sektor pengumpulan dana kripto, Meme: konsep MemeCoin AI Agent pertama—GOAT dengan cepat menjadi populer dan mendapatkan valuasi 1,4 miliar USD, berhasil memicu tren AI Meme.
Penelitian dan topik mengenai AI+Web3 juga sangat panas, mulai dari AI+Depin hingga Memecoin AI, kemudian ke AI Agent dan AI DAO saat ini, emosi FOMO sudah tidak dapat mengikuti kecepatan rotasi narasi baru.
Kombinasi istilah AI+Web3 yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan, tidak dapat dihindari dianggap sebagai pernikahan yang diatur oleh modal. Kita sulit membedakan di balik kemasan yang megah ini, apakah ini adalah arena para spekulator, ataukah malam sebelum ledakan fajar?
Untuk menjawab pertanyaan ini, pemikiran kunci yang penting bagi kedua belah pihak adalah, apakah keberadaan satu sama lain akan membuatnya lebih baik? Apakah ada manfaat yang bisa diperoleh dari pola pihak lain? Artikel ini mencoba untuk melihat pola ini dengan berdiri di atas bahu para pendahulu: bagaimana Web3 dapat berperan dalam setiap tahap tumpukan teknologi AI, dan apa yang dapat diberikan AI kepada Web3 sebagai kehidupan baru?
Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi dari model besar AI:
Model besar seperti otak manusia, pada tahap awal seperti bayi yang baru lahir, perlu mengamati dan menyerap informasi eksternal yang sangat banyak untuk memahami dunia, ini adalah tahap "pengumpulan" data; karena komputer tidak memiliki banyak indra seperti manusia, sebelum pelatihan, perlu dilakukan "pra-pemrosesan" untuk mengubah informasi yang tidak terlabel menjadi format yang dapat dipahami komputer.
Setelah memasukkan data, AI membangun model dengan kemampuan pemahaman dan prediksi melalui "pelatihan", mirip dengan proses di mana bayi secara bertahap memahami dan belajar dari dunia luar, parameter model seperti kemampuan bahasa bayi yang terus disesuaikan. Konten pembelajaran dibagi ke dalam subjek atau berinteraksi dengan orang lain untuk mendapatkan umpan balik dan memperbaiki, memasuki tahap "fine-tuning".
Ketika anak-anak tumbuh dan mulai berbicara, mereka dapat memahami makna dan mengekspresikan pemikiran dalam dialog baru, mirip dengan "penalaran" pada model AI besar, yang dapat melakukan analisis prediktif terhadap masukan teks bahasa baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan menyelesaikan masalah melalui bahasa, mirip dengan bagaimana model AI besar diterapkan pada berbagai tugas spesifik setelah dilatih, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
AI Agent lebih mendekati bentuk berikutnya dari model besar - mampu menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, untuk mengatasi berbagai masalah pada tumpukan AI, Web3 telah awalnya membentuk ekosistem yang terhubung secara multilapis, mencakup setiap tahap dalam proses model AI.
Lapisan Dasar: Airbnb untuk Kekuatan Pemrosesan dan Data
Daya komputasi
Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih dan menyimpulkan model.
Misalnya, LLAMA3 dari Meta membutuhkan 16.000 NVIDIA H100GPU selama 30 hari untuk menyelesaikan pelatihan. H100 versi 80GB memiliki harga satuan 30-40 ribu dolar, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar (GPU+chip jaringan ), konsumsi energi pelatihan per bulan mencapai 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar.
Pelepasan kekuatan komputasi AI juga merupakan salah satu bidang pertama di mana Web3 berinteraksi dengan AI—DePin( jaringan infrastruktur fisik terdesentralisasi). Saat ini, situs data DePin Ninja telah mencantumkan lebih dari 1400 proyek, di mana proyek unggulan berbagi kekuatan GPU termasuk io.net, Aethir, Akash, Render Network, dan lainnya.
Logika utamanya adalah: platform memungkinkan pemilik sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi secara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan Uber atau Airbnb, meningkatkan pemanfaatan sumber daya GPU yang tidak terpakai, dan pengguna akhir mendapatkan sumber daya komputasi yang efisien dengan biaya lebih rendah; pada saat yang sama, mekanisme staking memastikan bahwa penyedia sumber daya dihukum jika mereka melanggar mekanisme kontrol kualitas atau mengganggu jaringan.
Fitur termasuk:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia terutama adalah pusat data independen kecil dan menengah pihak ketiga, operator tambang kripto, dan sumber daya komputasi yang berlebihan, dengan mekanisme konsensus PoS untuk perangkat keras penambangan, seperti mesin penambangan FileCoin dan ETH. Beberapa proyek berusaha untuk menurunkan ambang batas awal, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inference model besar.
Menargetkan pasar tail panjang untuk kecerdasan buatan:
a. Sisi teknis: Pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data GPU dengan skala kluster yang sangat besar, sementara inferensi memiliki persyaratan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering latensi rendah dan aplikasi inferensi AI.
b. Sisi permintaan: Pihak dengan kebutuhan komputasi kecil dan menengah tidak akan melatih model besar mereka sendiri secara terpisah, melainkan memilih untuk mengoptimalkan dan melakukan penyesuaian di sekitar beberapa model besar terkemuka, dan skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.
Kepemilikan terdesentralisasi: Makna teknologi blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kendali atas sumber daya, dapat menyesuaikan dengan fleksibel sesuai kebutuhan dan memperoleh keuntungan.
Data
Data adalah fondasi AI. Tanpa data, perhitungan bagaikan ilalang yang tak berguna, dan hubungan antara data dan model seperti pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan nilai dan perilaku kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terletak pada:
Kecanduan Data: Pelatihan model AI bergantung pada input data yang sangat besar. Diketahui bahwa OpenAI melatih parameter GPT-4 mencapai tingkat triliunan.
Kualitas data: Dengan penggabungan AI dan berbagai industri, ketepatan waktu data, keberagaman, spesialisasi data vertikal, dan sumber data baru seperti emosi media sosial telah membawa tuntutan baru terhadap kualitasnya.
Masalah privasi dan kepatuhan: Negara-negara dan perusahaan-perusahaan mulai menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: Volume data besar, proses pemrosesan yang kompleks. Diketahui bahwa lebih dari 30% biaya penelitian dan pengembangan perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi Web3 tercermin dalam:
Pengumpulan Data: Data dunia nyata yang dapat disediakan secara gratis semakin menipis, pengeluaran perusahaan AI untuk membayar data meningkat setiap tahun. Namun, pengeluaran ini tidak memberikan imbalan kepada kontributor data yang sebenarnya, platform menikmati penciptaan nilai yang dihasilkan dari data, seperti Reddit yang memperoleh pendapatan sebesar 203 juta dolar AS melalui perjanjian lisensi data dengan perusahaan AI.
Membiarkan pengguna yang benar-benar berkontribusi terlibat dalam penciptaan nilai data, dan memperoleh data yang lebih pribadi dan lebih berharga dari pengguna dengan cara yang lebih murah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.
Grass adalah lapisan data terdesentralisasi dan jaringan, pengguna dapat berkontribusi bandwidth yang tidak terpakai dan lalu lintas relai dengan menjalankan node Grass untuk menangkap data internet secara real-time dan mendapatkan imbalan token.
Vana memperkenalkan konsep kolam likuiditas data unik (DLP), di mana pengguna dapat mengunggah data pribadi ( seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll. ) ke DLP tertentu, dan dengan fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakannya.
Di PublicAI, pengguna dapat menggunakan #AI或# label Web3 di X dan @PublicAI untuk melakukan pengumpulan data.
Pra-pemrosesan Data: Dalam proses pemrosesan data AI, karena data yang dikumpulkan biasanya berisik dan mengandung kesalahan, perlu dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, melibatkan tugas standar, penyaringan, dan pengolahan nilai yang hilang. Tahap ini adalah salah satu dari sedikit langkah manual di industri AI, melahirkan industri penandaan data, seiring dengan meningkatnya permintaan model terhadap kualitas data, ambang batas untuk penandaan data juga meningkat, tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
Grass dan OpenLayer sedang mempertimbangkan untuk menambahkan pelabelan data sebagai langkah kunci.
Synesis mengusulkan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh imbalan dengan memberikan data berlabel, komentar, atau input lainnya.
Proyek penandaan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Privasi dan Keamanan Data: perlu dijelaskan bahwa privasi data dan keamanan adalah dua konsep yang berbeda. Privasi data terkait dengan pengolahan data sensitif, sedangkan keamanan data melindungi informasi data dari akses, pengrusakan, dan pencurian yang tidak sah. Oleh karena itu, keunggulan teknologi privasi Web3 dan potensi aplikasi tercermin dalam: (1) pelatihan data sensitif; (2) kolaborasi data: beberapa pemilik data dapat berpartisipasi bersama dalam pelatihan AI tanpa perlu berbagi data asli.
Teknologi privasi yang umum saat ini di Web3 termasuk:
Lingkungan Eksekusi Terpercaya ( TEE ), seperti Super Protocol;
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io atau Inco Network;
Teknologi zero-knowledge ( zk ), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman, tanpa mengekspos informasi sensitif.
Namun, bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam eksplorasi, saat ini tantangan adalah biaya komputasi yang terlalu tinggi, misalnya:
Kerangka zkML EZKL memerlukan waktu sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.
Menurut data Modulus Labs, biaya zkML lebih dari 1000 kali lebih tinggi daripada perhitungan murni.
Penyimpanan Data: Setelah memiliki data, perlu juga menyimpan data di blockchain dan LLM yang dihasilkan dari data tersebut. Dengan ketersediaan data (DA) sebagai masalah inti, sebelum peningkatan Danksharding di Ethereum, throughputnya adalah 0,08MB. Namun, pelatihan model AI dan inferensi waktu nyata biasanya memerlukan throughput data 50-100GB per detik. Perbedaan skala ini membuat solusi on-chain yang ada tidak mampu menghadapi "aplikasi AI yang intensif sumber daya."
0g.AI adalah proyek perwakilan dalam kategori ini. Ini adalah solusi penyimpanan terpusat yang dirancang untuk kebutuhan kinerja tinggi AI, dengan fitur utama termasuk: kinerja tinggi dan skalabilitas, melalui teknik sharding (Sharding) dan pengkodean penghapusan (Erasure Coding), mendukung unggahan dan unduhan cepat untuk kumpulan data besar, kecepatan transfer data mendekati 5GB per detik.
Middleware: Pelatihan dan Inferensi Model
Pasar terdesentralisasi model sumber terbuka
Perdebatan tentang apakah model AI harus bersifat tertutup atau terbuka tidak pernah berhenti. Inovasi kolektif yang dihadirkan oleh model sumber terbuka adalah keuntungan yang tidak dapat dibandingkan dengan model tertutup, namun tanpa model keuntungan, bagaimana model sumber terbuka dapat meningkatkan dorongan pengembang? Ini adalah arah yang patut dipikirkan. Pendiri Baidu, Li Yanhong, pernah menyatakan pada bulan April tahun ini, "Model sumber terbuka akan semakin tertinggal."
Terkait hal ini, Web3 mengusulkan kemungkinan pasar model open-source yang terdesentralisasi, yaitu tokenisasi model itu sendiri, menyimpan proporsi token tertentu untuk tim, dan mengarahkan sebagian aliran pendapatan masa depan dari model tersebut kepada pemegang token.
Protokol Bittensor membangun pasar P2P untuk model sumber terbuka, terdiri dari puluhan "subnet". Penyedia sumber daya (, pengumpulan/penyimpanan data, dan talenta pembelajaran mesin ) saling bersaing untuk memenuhi tujuan pemilik subnet tertentu, masing-masing subnet dapat berinteraksi dan saling belajar, mewujudkan kecerdasan yang lebih kuat. Hadiah dibagikan berdasarkan suara komunitas dan didistribusikan lebih lanjut dalam setiap subnet berdasarkan kinerja kompetisi.
ORA memperkenalkan konsep penerbitan model awal (IMO), yang men-tokenisasi model AI, dan memungkinkan pembelian, penjualan, dan pengembangan model AI melalui jaringan terdesentralisasi.
Sentient, sebuah去中
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
19 Suka
Hadiah
19
6
Posting ulang
Bagikan
Komentar
0/400
AlwaysAnon
· 08-11 21:58
Siapa yang mengembangkan web3 dan tidak berinvestasi di AI?
Lihat AsliBalas0
DAOplomacy
· 08-10 07:18
sekali lagi narasi web3 x ai... sudah pernah melihat film ini jujur saja
Lihat AsliBalas0
SerLiquidated
· 08-10 07:17
Sekali lagi menggambar BTC.
Lihat AsliBalas0
ReverseTradingGuru
· 08-10 07:05
Sudah bisa mendapatkan uang lagi ya?
Lihat AsliBalas0
DegenMcsleepless
· 08-10 07:03
play people for suckers satu gelombang ai maksudnya seperti ini...
AI+Web3: Data, Daya Komputasi dan Model Revolusi Desentralisasi
AI+Web3: Menara dan Lapangan
TL;DR
Proyek Web3 dengan konsep AI menjadi target menarik di pasar primer dan sekunder.
Peluang Web3 di industri AI terletak pada: memanfaatkan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang ( lintas data, penyimpanan, dan komputasi ), sambil membangun model sumber terbuka dan pasar terdesentralisasi untuk AI Agent.
AI di industri Web3 terutama digunakan untuk keuangan on-chain ( pembayaran kripto, perdagangan, analisis data ) serta mendukung pengembangan.
Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 untuk meraih lebih banyak pengguna.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI seolah-olah menekan tombol percepatan, gelombang yang dipicu oleh Chatgpt tidak hanya membuka era baru kecerdasan buatan generatif, tetapi juga mengangkat gelombang besar di bidang Web3.
Di bawah konsep AI, ada peningkatan yang jelas dalam pembiayaan pasar kripto yang melambat. Menurut statistik, hanya pada paruh pertama tahun 2024, terdapat 64 proyek Web3+AI yang berhasil mendapatkan pendanaan, di mana sistem operasi berbasis kecerdasan buatan Zyber365 mendapatkan pendanaan putaran A sebesar 100 juta dolar AS, mencetak rekor tertinggi.
Pasar sekunder semakin berkembang, situs agregator kripto Coingecko menunjukkan bahwa dalam waktu singkat lebih dari satu tahun, total kapitalisasi pasar jalur AI telah mencapai 48,5 miliar USD, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar USD; kemajuan teknologi AI arus utama membawa keuntungan yang jelas, setelah peluncuran model teks ke video Sora dari OpenAI, harga rata-rata sektor AI meningkat 151%; efek AI juga menjalar ke salah satu sektor pengumpulan dana kripto, Meme: konsep MemeCoin AI Agent pertama—GOAT dengan cepat menjadi populer dan mendapatkan valuasi 1,4 miliar USD, berhasil memicu tren AI Meme.
Penelitian dan topik mengenai AI+Web3 juga sangat panas, mulai dari AI+Depin hingga Memecoin AI, kemudian ke AI Agent dan AI DAO saat ini, emosi FOMO sudah tidak dapat mengikuti kecepatan rotasi narasi baru.
Kombinasi istilah AI+Web3 yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan, tidak dapat dihindari dianggap sebagai pernikahan yang diatur oleh modal. Kita sulit membedakan di balik kemasan yang megah ini, apakah ini adalah arena para spekulator, ataukah malam sebelum ledakan fajar?
Untuk menjawab pertanyaan ini, pemikiran kunci yang penting bagi kedua belah pihak adalah, apakah keberadaan satu sama lain akan membuatnya lebih baik? Apakah ada manfaat yang bisa diperoleh dari pola pihak lain? Artikel ini mencoba untuk melihat pola ini dengan berdiri di atas bahu para pendahulu: bagaimana Web3 dapat berperan dalam setiap tahap tumpukan teknologi AI, dan apa yang dapat diberikan AI kepada Web3 sebagai kehidupan baru?
Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi dari model besar AI:
Model besar seperti otak manusia, pada tahap awal seperti bayi yang baru lahir, perlu mengamati dan menyerap informasi eksternal yang sangat banyak untuk memahami dunia, ini adalah tahap "pengumpulan" data; karena komputer tidak memiliki banyak indra seperti manusia, sebelum pelatihan, perlu dilakukan "pra-pemrosesan" untuk mengubah informasi yang tidak terlabel menjadi format yang dapat dipahami komputer.
Setelah memasukkan data, AI membangun model dengan kemampuan pemahaman dan prediksi melalui "pelatihan", mirip dengan proses di mana bayi secara bertahap memahami dan belajar dari dunia luar, parameter model seperti kemampuan bahasa bayi yang terus disesuaikan. Konten pembelajaran dibagi ke dalam subjek atau berinteraksi dengan orang lain untuk mendapatkan umpan balik dan memperbaiki, memasuki tahap "fine-tuning".
Ketika anak-anak tumbuh dan mulai berbicara, mereka dapat memahami makna dan mengekspresikan pemikiran dalam dialog baru, mirip dengan "penalaran" pada model AI besar, yang dapat melakukan analisis prediktif terhadap masukan teks bahasa baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan menyelesaikan masalah melalui bahasa, mirip dengan bagaimana model AI besar diterapkan pada berbagai tugas spesifik setelah dilatih, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
AI Agent lebih mendekati bentuk berikutnya dari model besar - mampu menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, untuk mengatasi berbagai masalah pada tumpukan AI, Web3 telah awalnya membentuk ekosistem yang terhubung secara multilapis, mencakup setiap tahap dalam proses model AI.
Lapisan Dasar: Airbnb untuk Kekuatan Pemrosesan dan Data
Daya komputasi
Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih dan menyimpulkan model.
Misalnya, LLAMA3 dari Meta membutuhkan 16.000 NVIDIA H100GPU selama 30 hari untuk menyelesaikan pelatihan. H100 versi 80GB memiliki harga satuan 30-40 ribu dolar, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar (GPU+chip jaringan ), konsumsi energi pelatihan per bulan mencapai 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar.
Pelepasan kekuatan komputasi AI juga merupakan salah satu bidang pertama di mana Web3 berinteraksi dengan AI—DePin( jaringan infrastruktur fisik terdesentralisasi). Saat ini, situs data DePin Ninja telah mencantumkan lebih dari 1400 proyek, di mana proyek unggulan berbagi kekuatan GPU termasuk io.net, Aethir, Akash, Render Network, dan lainnya.
Logika utamanya adalah: platform memungkinkan pemilik sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi secara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan Uber atau Airbnb, meningkatkan pemanfaatan sumber daya GPU yang tidak terpakai, dan pengguna akhir mendapatkan sumber daya komputasi yang efisien dengan biaya lebih rendah; pada saat yang sama, mekanisme staking memastikan bahwa penyedia sumber daya dihukum jika mereka melanggar mekanisme kontrol kualitas atau mengganggu jaringan.
Fitur termasuk:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia terutama adalah pusat data independen kecil dan menengah pihak ketiga, operator tambang kripto, dan sumber daya komputasi yang berlebihan, dengan mekanisme konsensus PoS untuk perangkat keras penambangan, seperti mesin penambangan FileCoin dan ETH. Beberapa proyek berusaha untuk menurunkan ambang batas awal, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inference model besar.
Menargetkan pasar tail panjang untuk kecerdasan buatan: a. Sisi teknis: Pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data GPU dengan skala kluster yang sangat besar, sementara inferensi memiliki persyaratan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering latensi rendah dan aplikasi inferensi AI. b. Sisi permintaan: Pihak dengan kebutuhan komputasi kecil dan menengah tidak akan melatih model besar mereka sendiri secara terpisah, melainkan memilih untuk mengoptimalkan dan melakukan penyesuaian di sekitar beberapa model besar terkemuka, dan skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.
Kepemilikan terdesentralisasi: Makna teknologi blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kendali atas sumber daya, dapat menyesuaikan dengan fleksibel sesuai kebutuhan dan memperoleh keuntungan.
Data
Data adalah fondasi AI. Tanpa data, perhitungan bagaikan ilalang yang tak berguna, dan hubungan antara data dan model seperti pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan nilai dan perilaku kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terletak pada:
Kecanduan Data: Pelatihan model AI bergantung pada input data yang sangat besar. Diketahui bahwa OpenAI melatih parameter GPT-4 mencapai tingkat triliunan.
Kualitas data: Dengan penggabungan AI dan berbagai industri, ketepatan waktu data, keberagaman, spesialisasi data vertikal, dan sumber data baru seperti emosi media sosial telah membawa tuntutan baru terhadap kualitasnya.
Masalah privasi dan kepatuhan: Negara-negara dan perusahaan-perusahaan mulai menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: Volume data besar, proses pemrosesan yang kompleks. Diketahui bahwa lebih dari 30% biaya penelitian dan pengembangan perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi Web3 tercermin dalam:
Membiarkan pengguna yang benar-benar berkontribusi terlibat dalam penciptaan nilai data, dan memperoleh data yang lebih pribadi dan lebih berharga dari pengguna dengan cara yang lebih murah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.
Grass adalah lapisan data terdesentralisasi dan jaringan, pengguna dapat berkontribusi bandwidth yang tidak terpakai dan lalu lintas relai dengan menjalankan node Grass untuk menangkap data internet secara real-time dan mendapatkan imbalan token.
Vana memperkenalkan konsep kolam likuiditas data unik (DLP), di mana pengguna dapat mengunggah data pribadi ( seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll. ) ke DLP tertentu, dan dengan fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakannya.
Di PublicAI, pengguna dapat menggunakan #AI或# label Web3 di X dan @PublicAI untuk melakukan pengumpulan data.
Grass dan OpenLayer sedang mempertimbangkan untuk menambahkan pelabelan data sebagai langkah kunci.
Synesis mengusulkan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh imbalan dengan memberikan data berlabel, komentar, atau input lainnya.
Proyek penandaan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Teknologi privasi yang umum saat ini di Web3 termasuk:
Lingkungan Eksekusi Terpercaya ( TEE ), seperti Super Protocol;
Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io atau Inco Network;
Teknologi zero-knowledge ( zk ), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman, tanpa mengekspos informasi sensitif.
Namun, bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam eksplorasi, saat ini tantangan adalah biaya komputasi yang terlalu tinggi, misalnya:
Kerangka zkML EZKL memerlukan waktu sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.
Menurut data Modulus Labs, biaya zkML lebih dari 1000 kali lebih tinggi daripada perhitungan murni.
Middleware: Pelatihan dan Inferensi Model
Pasar terdesentralisasi model sumber terbuka
Perdebatan tentang apakah model AI harus bersifat tertutup atau terbuka tidak pernah berhenti. Inovasi kolektif yang dihadirkan oleh model sumber terbuka adalah keuntungan yang tidak dapat dibandingkan dengan model tertutup, namun tanpa model keuntungan, bagaimana model sumber terbuka dapat meningkatkan dorongan pengembang? Ini adalah arah yang patut dipikirkan. Pendiri Baidu, Li Yanhong, pernah menyatakan pada bulan April tahun ini, "Model sumber terbuka akan semakin tertinggal."
Terkait hal ini, Web3 mengusulkan kemungkinan pasar model open-source yang terdesentralisasi, yaitu tokenisasi model itu sendiri, menyimpan proporsi token tertentu untuk tim, dan mengarahkan sebagian aliran pendapatan masa depan dari model tersebut kepada pemegang token.
Protokol Bittensor membangun pasar P2P untuk model sumber terbuka, terdiri dari puluhan "subnet". Penyedia sumber daya (, pengumpulan/penyimpanan data, dan talenta pembelajaran mesin ) saling bersaing untuk memenuhi tujuan pemilik subnet tertentu, masing-masing subnet dapat berinteraksi dan saling belajar, mewujudkan kecerdasan yang lebih kuat. Hadiah dibagikan berdasarkan suara komunitas dan didistribusikan lebih lanjut dalam setiap subnet berdasarkan kinerja kompetisi.
ORA memperkenalkan konsep penerbitan model awal (IMO), yang men-tokenisasi model AI, dan memungkinkan pembelian, penjualan, dan pengembangan model AI melalui jaringan terdesentralisasi.
Sentient, sebuah去中