L'émergence des réseaux DePIN de l'IA : le calcul GPU décentralisé ouvre la voie à une nouvelle tendance

Réseau AI DePIN : l'avenir du calcul GPU décentralisé

Depuis 2023, l'IA et le DePIN sont devenus des tendances populaires dans le domaine du Web3, avec des capitalisations boursières respectives atteignant 30 milliards de dollars et 23 milliards de dollars. Cet article se concentre sur le domaine d'intersection des deux et explore l'évolution des protocoles associés.

Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. La pénurie de GPU causée par les grandes entreprises technologiques rend difficile pour d'autres développeurs d'IA d'obtenir suffisamment de puissance de calcul GPU. La pratique traditionnelle consiste à choisir des fournisseurs de services cloud centralisés, mais cela nécessite de signer des contrats à long terme peu flexibles et inefficaces.

DePIN offre une alternative plus flexible et rentable en incitant les contributions de ressources qui répondent aux objectifs du réseau par le biais de jetons. Dans le domaine de l'IA, DePIN intègre les ressources GPU individuelles dans des centres de données, fournissant ainsi une offre unifiée aux utilisateurs. Cela offre non seulement aux développeurs un accès sur mesure et à la demande, mais crée également des revenus supplémentaires pour les propriétaires de GPU.

Il existe de nombreux réseaux DePIN basés sur l'IA sur le marché. Cet article explorera le rôle, les objectifs et les points forts de chaque protocole, ainsi que leurs différences.

AI et DePIN se croisent

Aperçu du réseau AI DePIN

Rendre

Render est un pionnier du réseau de calcul GPU P2P, initialement axé sur le rendu graphique, puis s'est élargi aux tâches de calcul AI.

Points forts :

  • Fondée par la société OTOY, lauréate d'un Oscar technique.
  • Le réseau GPU est utilisé par des grandes entreprises de divertissement comme Paramount, PUBG, etc.
  • Collaborer avec Stability AI pour intégrer des modèles d'IA dans un flux de travail de rendu de contenu 3D
  • Approuver plusieurs clients de calcul, intégrer plus de GPU dans le réseau DePIN

Akash

Akash se positionne comme une plateforme de "super cloud" supportant le stockage, le calcul GPU et CPU, alternative aux plateformes traditionnelles comme AWS. Grâce à des nœuds de calcul gérés par une plateforme de conteneurs et Kubernetes, il est possible de déployer sans effort n'importe quelle application native du cloud.

Points forts :

  • Ciblant une large gamme de tâches de calcul allant du calcul général à l'hébergement web
  • AkashML permet d'exécuter plus de 15 000 modèles sur Hugging Face
  • Applications importantes telles que le robot de chat LLM de Mistral AI, SDXL de Stability AI, etc.
  • La métavers, le déploiement de l'IA et la plateforme d'apprentissage fédéré utilisent son super cloud

io.net

io.net fournit un accès à des clusters GPU cloud distribués spécialement conçus pour l'IA et le ML, en agrégeant des ressources GPU provenant de centres de données, de mineurs, etc.

Points forts:

  • IO-SDK compatible avec des frameworks tels que PyTorch et Tensorflow, capable de s'étendre automatiquement en fonction des besoins.
  • Prend en charge la création de 3 types différents de clusters, pouvant être lancés en moins de 2 minutes.
  • Intégrer d'autres réseaux DePIN de GPU en collaboration avec Render, Filecoin, etc.

Gensyn

Gensyn fournit une puissance de calcul GPU axée sur l'apprentissage automatique et l'apprentissage profond. Grâce à des technologies telles que la preuve d'apprentissage, elle réalise un mécanisme de validation plus efficace.

Points forts:

  • Le coût horaire d'un GPU V100 est d'environ 0,40 dollar, ce qui permet d'économiser considérablement.
  • Peut affiner le modèle de base pré-entraîné pour accomplir des tâches plus spécifiques
  • Le modèle de base sera décentralisé, partagé au niveau mondial, offrant des fonctionnalités supplémentaires.

Aethir

Aethir se spécialise dans le déploiement de GPU de niveau entreprise, en se concentrant sur des domaines intensifs en calcul tels que l'IA, le ML et le cloud gaming. Les conteneurs dans le réseau agissent comme des points d'exécution virtuels pour les applications cloud, offrant une expérience à faible latence.

Points forts:

  • Élargir le service de téléphone cloud, lancer un téléphone cloud décentralisé en collaboration avec APhone.
  • Établir une vaste coopération avec de grandes entreprises Web2 telles que NVIDIA et HPE
  • Avec plusieurs partenaires Web3 tels que CARV, Magic Eden

Phala Network

Phala Network en tant que couche d'exécution pour les solutions Web3 AI, utilise l'environnement d'exécution de confiance (TEE) pour traiter les problèmes de confidentialité. Cela permet aux agents AI d'être contrôlés par des contrats intelligents sur la chaîne.

Points forts :

  • En tant que protocole de coprocesseur pour le calcul vérifiable, habilitant les agents IA aux ressources en chaîne.
  • Les contrats d'agent AI peuvent être obtenus via Redpill pour accéder à des modèles de langage de premier plan tels qu'OpenAI.
  • L'avenir inclura des systèmes de preuves multiples tels que zk-proofs, MPC, FHE.
  • Support futur pour les GPU TEE comme le H100, amélioration de la capacité de calcul

Comparaison de projet

| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points clés des affaires | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, jeux dans le cloud et télécommunications | Exécution IA sur la chaîne | | Type de tâche AI | Inférence | Les deux sont possibles | Les deux sont possibles | Entraînement | Entraînement | Exécution | | Prix du travail | Prix basé sur la performance | Enchère inversée | Prix du marché | Prix du marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Cryptage&Hachage | Authentification mTLS | Cryptage des données | Mappage sécurisé | Cryptage | TEE | | Coût de travail | 0,5-5% par travail | 20% USDC, 4% AKT | 2% USDC, 0,25% de frais de réserve | Coût bas | 20% par session | Proportionnel au montant staké | | Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais | | Preuve de complétion | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de rendu | Preuve TEE | | Garantie de qualité | Controverse | - | - | Vérificateur et dénonciateur | Nœud de vérification | Preuve à distance | | GPU集群 | Non | Oui | Oui | Oui | Oui | Non |

AI et le point de convergence de DePIN

Importance

disponibilité du calcul en cluster et parallèle

Le cadre de calcul distribué a mis en place un cluster GPU, offrant un entraînement plus efficace tout en améliorant l'évolutivité. L'entraînement de modèles AI complexes nécessite une puissance de calcul importante, s'appuyant souvent sur le calcul distribué. Par exemple, le modèle GPT-4 d'OpenAI possède plus de 18 trillions de paramètres, entraîné sur environ 25 000 GPU Nvidia A100 répartis sur 128 clusters pendant 3 à 4 mois.

La plupart des projets ont désormais intégré des clusters pour réaliser des calculs parallèles. io.net collabore avec d'autres projets pour intégrer davantage de GPU dans le réseau, avec plus de 3 800 clusters déployés au premier trimestre de 2024. Render ne prend pas en charge les clusters, mais décompose une seule image en plusieurs nœuds pour un traitement simultané, fonctionnant de manière similaire. Phala ne prend actuellement en charge que les CPU, mais permet la mise en cluster des travailleurs CPU.

AI et le point de convergence de DePIN

confidentialité des données

Le développement de modèles d'IA nécessite de vastes ensembles de données, qui peuvent contenir des informations sensibles. Samsung a désactivé ChatGPT par crainte d'une fuite de code, et l'incident de fuite de données de 38 To de Microsoft souligne l'importance des mesures de sécurité en matière d'IA. Par conséquent, diverses méthodes de protection de la vie privée des données sont essentielles pour préserver le contrôle des données.

La plupart des projets utilisent une forme de chiffrement des données. Render utilise le chiffrement et le hachage lors de la publication des résultats de rendu, io.net et Gensyn adoptent le chiffrement des données, et Akash utilise l'authentification mTLS pour restreindre l'accès aux données.

io.net a récemment collaboré avec Mind Network pour lancer le chiffrement homomorphe complet (FHE), permettant de traiter des données chiffrées sans décryptage, offrant une meilleure protection de la vie privée des données par rapport aux technologies de chiffrement existantes.

Phala Network introduit un environnement d'exécution de confiance ( TEE ), empêchant les processus externes d'accéder ou de modifier les données. Il intègre également des zk-proofs dans le vérificateur zkDCAP et le jtee CLI, afin d'intégrer RiscZero zkVM.

AI et DePIN à l'intersection

preuve de calcul terminé et contrôle de qualité

En raison de la vaste gamme de services, allant du rendu au calcul AI, la qualité finale peut ne pas toujours répondre aux normes des utilisateurs. La validation et le contrôle de la qualité sont bénéfiques pour les utilisateurs.

Gensyn et Aethir génèrent des preuves de complétion, la preuve de io.net indique que les performances GPU sont pleinement exploitées. Gensyn et Aethir effectuent des contrôles de qualité, Gensyn utilise des validateurs et des rapporteurs, Aethir utilise des nœuds de vérification. Render recommande d'utiliser le processus de résolution des conflits. Phala génère des preuves TEE, garantissant que les agents IA exécutent les opérations nécessaires.

Statistiques matérielles

| | Rendu | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Quantité H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | 1,46 $ | 1,19 $ | - | - | - | | Coût A100/heure | - | $1.37 | $1.50 | $0.55 ( prévu ) | $0.33 ( prévu ) | - |

AI et le point de convergence de DePIN

Demande de GPU haute performance

Les modèles d'IA ont tendance à utiliser des GPU haute performance tels que le Nvidia A100 et H100 pour l'entraînement. La performance d'inférence du H100 est quatre fois supérieure à celle du A100, ce qui en fait le choix privilégié des grandes entreprises pour l'entraînement des LLM.

Les fournisseurs de marché GPU décentralisés doivent proposer des prix plus bas et répondre aux besoins réels. En 2023, Nvidia a livré plus de 500 000 H100 aux grandes entreprises technologiques, rendant l'acquisition de matériel équivalent difficile. Par conséquent, il est crucial de considérer le nombre de matériels que ces projets peuvent introduire à faible coût pour élargir leur clientèle.

Akash n'a que plus de 150 H100 et A100, tandis qu'io.net et Aethir en ont tous deux plus de 2000. Les LLM pré-entraînés ou les modèles génératifs nécessitent généralement entre 248 et plus de 2000 clusters de GPU, donc les deux derniers projets sont plus adaptés au calcul de grands modèles.

Le coût des services GPU décentralisés est désormais inférieur à celui des services centralisés. Gensyn et Aethir affirment pouvoir louer du matériel de niveau A100 pour moins de 1 dollar de l'heure, mais cela prendra du temps pour le vérifier.

Comparé aux GPU connectés par NVLink, la mémoire des clusters de GPU connectés par réseau est limitée. NVLink permet la communication directe entre les GPU, ce qui est adapté aux LLM avec de grands paramètres et de grands ensembles de données. Néanmoins, le réseau GPU décentralisé offre toujours une puissance de calcul robuste et une évolutivité pour les tâches de calcul distribué, créant des opportunités pour développer davantage d'applications d'IA et de ML.

AI et le point de convergence de DePIN

fournit des GPU/CPU de niveau consommateur

Le CPU joue également un rôle important dans l'entraînement des modèles d'IA, allant du prétraitement des données à la gestion de la mémoire. Les GPU grand public peuvent être utilisés pour affiner des modèles préentraînés ou entraîner des modèles de petite taille.

Considérant que plus de 85 % des ressources GPU des consommateurs sont inactives, des projets comme Render, Akash et io.net servent également ce marché. Offrir ces options leur permet de développer des marchés de niche, en se concentrant sur le calcul intensif à grande échelle, le rendu à petite échelle ou une combinaison des deux.

AI et le point de convergence de DePIN

Conclusion

Le domaine DePIN de l'IA reste relativement émergent et fait face à des défis. Par exemple, io.net a été accusé de falsifier le nombre de GPU, mais a résolu le problème en introduisant un processus de preuve de travail.

Néanmoins, le nombre de tâches exécutées et de matériel sur ces réseaux GPU décentralisés a considérablement augmenté, soulignant la croissance de la demande pour des alternatives aux ressources matérielles des fournisseurs de cloud Web2. Parallèlement, l'augmentation du nombre de fournisseurs de matériel reflète une offre auparavant sous-exploitée. Cela prouve davantage l'adéquation produit-marché des réseaux AI DePIN, qui répondent efficacement aux défis de la demande et de l'offre.

Envisageant l'avenir, l'IA va se développer pour devenir un marché florissant de milliers de milliards de dollars. Ces réseaux GPU décentralisés joueront un rôle clé dans la fourniture d'alternatives de calcul rentables pour les développeurs. En continuant à combler l'écart entre l'offre et la demande, ces réseaux contribueront de manière significative au paysage futur de l'IA et des infrastructures informatiques.

AI et le point de convergence de DePIN

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Partager
Commentaire
0/400
SpeakWithHatOnvip
· Il y a 20h
Toujours en train de trader du depin ? Mieux vaut mourir tôt pour renaître.
Voir l'originalRépondre0
SmartContractPlumbervip
· Il y a 20h
Ce code doit encore être examiné, ne laisse pas de vulnérabilités évidentes.
Voir l'originalRépondre0
HodlNerdvip
· Il y a 20h
théorie des jeux fascinante en action... les pools GPU décentralisés sont la prochaine évolution logique, à vrai dire
Voir l'originalRépondre0
PanicSellervip
· Il y a 20h
Il ne manque qu'une carte graphique, regardez ce que ces gens peuvent faire.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)