Réseau AI DePIN : l'avenir du calcul GPU décentralisé
Depuis 2023, l'IA et le DePIN sont devenus des tendances populaires dans le domaine du Web3, avec des capitalisations boursières respectives atteignant 30 milliards de dollars et 23 milliards de dollars. Cet article se concentre sur le domaine d'intersection des deux et explore l'évolution des protocoles associés.
Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. La pénurie de GPU causée par les grandes entreprises technologiques rend difficile pour d'autres développeurs d'IA d'obtenir suffisamment de puissance de calcul GPU. La pratique traditionnelle consiste à choisir des fournisseurs de services cloud centralisés, mais cela nécessite de signer des contrats à long terme peu flexibles et inefficaces.
DePIN offre une alternative plus flexible et rentable en incitant les contributions de ressources qui répondent aux objectifs du réseau par le biais de jetons. Dans le domaine de l'IA, DePIN intègre les ressources GPU individuelles dans des centres de données, fournissant ainsi une offre unifiée aux utilisateurs. Cela offre non seulement aux développeurs un accès sur mesure et à la demande, mais crée également des revenus supplémentaires pour les propriétaires de GPU.
Il existe de nombreux réseaux DePIN basés sur l'IA sur le marché. Cet article explorera le rôle, les objectifs et les points forts de chaque protocole, ainsi que leurs différences.
Aperçu du réseau AI DePIN
Rendre
Render est un pionnier du réseau de calcul GPU P2P, initialement axé sur le rendu graphique, puis s'est élargi aux tâches de calcul AI.
Points forts :
Fondée par la société OTOY, lauréate d'un Oscar technique.
Le réseau GPU est utilisé par des grandes entreprises de divertissement comme Paramount, PUBG, etc.
Collaborer avec Stability AI pour intégrer des modèles d'IA dans un flux de travail de rendu de contenu 3D
Approuver plusieurs clients de calcul, intégrer plus de GPU dans le réseau DePIN
Akash
Akash se positionne comme une plateforme de "super cloud" supportant le stockage, le calcul GPU et CPU, alternative aux plateformes traditionnelles comme AWS. Grâce à des nœuds de calcul gérés par une plateforme de conteneurs et Kubernetes, il est possible de déployer sans effort n'importe quelle application native du cloud.
Points forts :
Ciblant une large gamme de tâches de calcul allant du calcul général à l'hébergement web
AkashML permet d'exécuter plus de 15 000 modèles sur Hugging Face
Applications importantes telles que le robot de chat LLM de Mistral AI, SDXL de Stability AI, etc.
La métavers, le déploiement de l'IA et la plateforme d'apprentissage fédéré utilisent son super cloud
io.net
io.net fournit un accès à des clusters GPU cloud distribués spécialement conçus pour l'IA et le ML, en agrégeant des ressources GPU provenant de centres de données, de mineurs, etc.
Points forts:
IO-SDK compatible avec des frameworks tels que PyTorch et Tensorflow, capable de s'étendre automatiquement en fonction des besoins.
Prend en charge la création de 3 types différents de clusters, pouvant être lancés en moins de 2 minutes.
Intégrer d'autres réseaux DePIN de GPU en collaboration avec Render, Filecoin, etc.
Gensyn
Gensyn fournit une puissance de calcul GPU axée sur l'apprentissage automatique et l'apprentissage profond. Grâce à des technologies telles que la preuve d'apprentissage, elle réalise un mécanisme de validation plus efficace.
Points forts:
Le coût horaire d'un GPU V100 est d'environ 0,40 dollar, ce qui permet d'économiser considérablement.
Peut affiner le modèle de base pré-entraîné pour accomplir des tâches plus spécifiques
Le modèle de base sera décentralisé, partagé au niveau mondial, offrant des fonctionnalités supplémentaires.
Aethir
Aethir se spécialise dans le déploiement de GPU de niveau entreprise, en se concentrant sur des domaines intensifs en calcul tels que l'IA, le ML et le cloud gaming. Les conteneurs dans le réseau agissent comme des points d'exécution virtuels pour les applications cloud, offrant une expérience à faible latence.
Points forts:
Élargir le service de téléphone cloud, lancer un téléphone cloud décentralisé en collaboration avec APhone.
Établir une vaste coopération avec de grandes entreprises Web2 telles que NVIDIA et HPE
Avec plusieurs partenaires Web3 tels que CARV, Magic Eden
Phala Network
Phala Network en tant que couche d'exécution pour les solutions Web3 AI, utilise l'environnement d'exécution de confiance (TEE) pour traiter les problèmes de confidentialité. Cela permet aux agents AI d'être contrôlés par des contrats intelligents sur la chaîne.
Points forts :
En tant que protocole de coprocesseur pour le calcul vérifiable, habilitant les agents IA aux ressources en chaîne.
Les contrats d'agent AI peuvent être obtenus via Redpill pour accéder à des modèles de langage de premier plan tels qu'OpenAI.
L'avenir inclura des systèmes de preuves multiples tels que zk-proofs, MPC, FHE.
Support futur pour les GPU TEE comme le H100, amélioration de la capacité de calcul
Comparaison de projet
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Points clés des affaires | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, jeux dans le cloud et télécommunications | Exécution IA sur la chaîne |
| Type de tâche AI | Inférence | Les deux sont possibles | Les deux sont possibles | Entraînement | Entraînement | Exécution |
| Prix du travail | Prix basé sur la performance | Enchère inversée | Prix du marché | Prix du marché | Système d'appel d'offres | Calcul des droits |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Confidentialité des données | Cryptage&Hachage | Authentification mTLS | Cryptage des données | Mappage sécurisé | Cryptage | TEE |
| Coût de travail | 0,5-5% par travail | 20% USDC, 4% AKT | 2% USDC, 0,25% de frais de réserve | Coût bas | 20% par session | Proportionnel au montant staké |
| Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais |
| Preuve de complétion | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de rendu | Preuve TEE |
| Garantie de qualité | Controverse | - | - | Vérificateur et dénonciateur | Nœud de vérification | Preuve à distance |
| GPU集群 | Non | Oui | Oui | Oui | Oui | Non |
Importance
disponibilité du calcul en cluster et parallèle
Le cadre de calcul distribué a mis en place un cluster GPU, offrant un entraînement plus efficace tout en améliorant l'évolutivité. L'entraînement de modèles AI complexes nécessite une puissance de calcul importante, s'appuyant souvent sur le calcul distribué. Par exemple, le modèle GPT-4 d'OpenAI possède plus de 18 trillions de paramètres, entraîné sur environ 25 000 GPU Nvidia A100 répartis sur 128 clusters pendant 3 à 4 mois.
La plupart des projets ont désormais intégré des clusters pour réaliser des calculs parallèles. io.net collabore avec d'autres projets pour intégrer davantage de GPU dans le réseau, avec plus de 3 800 clusters déployés au premier trimestre de 2024. Render ne prend pas en charge les clusters, mais décompose une seule image en plusieurs nœuds pour un traitement simultané, fonctionnant de manière similaire. Phala ne prend actuellement en charge que les CPU, mais permet la mise en cluster des travailleurs CPU.
confidentialité des données
Le développement de modèles d'IA nécessite de vastes ensembles de données, qui peuvent contenir des informations sensibles. Samsung a désactivé ChatGPT par crainte d'une fuite de code, et l'incident de fuite de données de 38 To de Microsoft souligne l'importance des mesures de sécurité en matière d'IA. Par conséquent, diverses méthodes de protection de la vie privée des données sont essentielles pour préserver le contrôle des données.
La plupart des projets utilisent une forme de chiffrement des données. Render utilise le chiffrement et le hachage lors de la publication des résultats de rendu, io.net et Gensyn adoptent le chiffrement des données, et Akash utilise l'authentification mTLS pour restreindre l'accès aux données.
io.net a récemment collaboré avec Mind Network pour lancer le chiffrement homomorphe complet (FHE), permettant de traiter des données chiffrées sans décryptage, offrant une meilleure protection de la vie privée des données par rapport aux technologies de chiffrement existantes.
Phala Network introduit un environnement d'exécution de confiance ( TEE ), empêchant les processus externes d'accéder ou de modifier les données. Il intègre également des zk-proofs dans le vérificateur zkDCAP et le jtee CLI, afin d'intégrer RiscZero zkVM.
preuve de calcul terminé et contrôle de qualité
En raison de la vaste gamme de services, allant du rendu au calcul AI, la qualité finale peut ne pas toujours répondre aux normes des utilisateurs. La validation et le contrôle de la qualité sont bénéfiques pour les utilisateurs.
Gensyn et Aethir génèrent des preuves de complétion, la preuve de io.net indique que les performances GPU sont pleinement exploitées. Gensyn et Aethir effectuent des contrôles de qualité, Gensyn utilise des validateurs et des rapporteurs, Aethir utilise des nœuds de vérification. Render recommande d'utiliser le processus de résolution des conflits. Phala génère des preuves TEE, garantissant que les agents IA exécutent les opérations nécessaires.
Les modèles d'IA ont tendance à utiliser des GPU haute performance tels que le Nvidia A100 et H100 pour l'entraînement. La performance d'inférence du H100 est quatre fois supérieure à celle du A100, ce qui en fait le choix privilégié des grandes entreprises pour l'entraînement des LLM.
Les fournisseurs de marché GPU décentralisés doivent proposer des prix plus bas et répondre aux besoins réels. En 2023, Nvidia a livré plus de 500 000 H100 aux grandes entreprises technologiques, rendant l'acquisition de matériel équivalent difficile. Par conséquent, il est crucial de considérer le nombre de matériels que ces projets peuvent introduire à faible coût pour élargir leur clientèle.
Akash n'a que plus de 150 H100 et A100, tandis qu'io.net et Aethir en ont tous deux plus de 2000. Les LLM pré-entraînés ou les modèles génératifs nécessitent généralement entre 248 et plus de 2000 clusters de GPU, donc les deux derniers projets sont plus adaptés au calcul de grands modèles.
Le coût des services GPU décentralisés est désormais inférieur à celui des services centralisés. Gensyn et Aethir affirment pouvoir louer du matériel de niveau A100 pour moins de 1 dollar de l'heure, mais cela prendra du temps pour le vérifier.
Comparé aux GPU connectés par NVLink, la mémoire des clusters de GPU connectés par réseau est limitée. NVLink permet la communication directe entre les GPU, ce qui est adapté aux LLM avec de grands paramètres et de grands ensembles de données. Néanmoins, le réseau GPU décentralisé offre toujours une puissance de calcul robuste et une évolutivité pour les tâches de calcul distribué, créant des opportunités pour développer davantage d'applications d'IA et de ML.
fournit des GPU/CPU de niveau consommateur
Le CPU joue également un rôle important dans l'entraînement des modèles d'IA, allant du prétraitement des données à la gestion de la mémoire. Les GPU grand public peuvent être utilisés pour affiner des modèles préentraînés ou entraîner des modèles de petite taille.
Considérant que plus de 85 % des ressources GPU des consommateurs sont inactives, des projets comme Render, Akash et io.net servent également ce marché. Offrir ces options leur permet de développer des marchés de niche, en se concentrant sur le calcul intensif à grande échelle, le rendu à petite échelle ou une combinaison des deux.
Conclusion
Le domaine DePIN de l'IA reste relativement émergent et fait face à des défis. Par exemple, io.net a été accusé de falsifier le nombre de GPU, mais a résolu le problème en introduisant un processus de preuve de travail.
Néanmoins, le nombre de tâches exécutées et de matériel sur ces réseaux GPU décentralisés a considérablement augmenté, soulignant la croissance de la demande pour des alternatives aux ressources matérielles des fournisseurs de cloud Web2. Parallèlement, l'augmentation du nombre de fournisseurs de matériel reflète une offre auparavant sous-exploitée. Cela prouve davantage l'adéquation produit-marché des réseaux AI DePIN, qui répondent efficacement aux défis de la demande et de l'offre.
Envisageant l'avenir, l'IA va se développer pour devenir un marché florissant de milliers de milliards de dollars. Ces réseaux GPU décentralisés joueront un rôle clé dans la fourniture d'alternatives de calcul rentables pour les développeurs. En continuant à combler l'écart entre l'offre et la demande, ces réseaux contribueront de manière significative au paysage futur de l'IA et des infrastructures informatiques.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
4
Partager
Commentaire
0/400
SpeakWithHatOn
· Il y a 20h
Toujours en train de trader du depin ? Mieux vaut mourir tôt pour renaître.
Voir l'originalRépondre0
SmartContractPlumber
· Il y a 20h
Ce code doit encore être examiné, ne laisse pas de vulnérabilités évidentes.
Voir l'originalRépondre0
HodlNerd
· Il y a 20h
théorie des jeux fascinante en action... les pools GPU décentralisés sont la prochaine évolution logique, à vrai dire
Voir l'originalRépondre0
PanicSeller
· Il y a 20h
Il ne manque qu'une carte graphique, regardez ce que ces gens peuvent faire.
L'émergence des réseaux DePIN de l'IA : le calcul GPU décentralisé ouvre la voie à une nouvelle tendance
Réseau AI DePIN : l'avenir du calcul GPU décentralisé
Depuis 2023, l'IA et le DePIN sont devenus des tendances populaires dans le domaine du Web3, avec des capitalisations boursières respectives atteignant 30 milliards de dollars et 23 milliards de dollars. Cet article se concentre sur le domaine d'intersection des deux et explore l'évolution des protocoles associés.
Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. La pénurie de GPU causée par les grandes entreprises technologiques rend difficile pour d'autres développeurs d'IA d'obtenir suffisamment de puissance de calcul GPU. La pratique traditionnelle consiste à choisir des fournisseurs de services cloud centralisés, mais cela nécessite de signer des contrats à long terme peu flexibles et inefficaces.
DePIN offre une alternative plus flexible et rentable en incitant les contributions de ressources qui répondent aux objectifs du réseau par le biais de jetons. Dans le domaine de l'IA, DePIN intègre les ressources GPU individuelles dans des centres de données, fournissant ainsi une offre unifiée aux utilisateurs. Cela offre non seulement aux développeurs un accès sur mesure et à la demande, mais crée également des revenus supplémentaires pour les propriétaires de GPU.
Il existe de nombreux réseaux DePIN basés sur l'IA sur le marché. Cet article explorera le rôle, les objectifs et les points forts de chaque protocole, ainsi que leurs différences.
Aperçu du réseau AI DePIN
Rendre
Render est un pionnier du réseau de calcul GPU P2P, initialement axé sur le rendu graphique, puis s'est élargi aux tâches de calcul AI.
Points forts :
Akash
Akash se positionne comme une plateforme de "super cloud" supportant le stockage, le calcul GPU et CPU, alternative aux plateformes traditionnelles comme AWS. Grâce à des nœuds de calcul gérés par une plateforme de conteneurs et Kubernetes, il est possible de déployer sans effort n'importe quelle application native du cloud.
Points forts :
io.net
io.net fournit un accès à des clusters GPU cloud distribués spécialement conçus pour l'IA et le ML, en agrégeant des ressources GPU provenant de centres de données, de mineurs, etc.
Points forts:
Gensyn
Gensyn fournit une puissance de calcul GPU axée sur l'apprentissage automatique et l'apprentissage profond. Grâce à des technologies telles que la preuve d'apprentissage, elle réalise un mécanisme de validation plus efficace.
Points forts:
Aethir
Aethir se spécialise dans le déploiement de GPU de niveau entreprise, en se concentrant sur des domaines intensifs en calcul tels que l'IA, le ML et le cloud gaming. Les conteneurs dans le réseau agissent comme des points d'exécution virtuels pour les applications cloud, offrant une expérience à faible latence.
Points forts:
Phala Network
Phala Network en tant que couche d'exécution pour les solutions Web3 AI, utilise l'environnement d'exécution de confiance (TEE) pour traiter les problèmes de confidentialité. Cela permet aux agents AI d'être contrôlés par des contrats intelligents sur la chaîne.
Points forts :
Comparaison de projet
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points clés des affaires | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, jeux dans le cloud et télécommunications | Exécution IA sur la chaîne | | Type de tâche AI | Inférence | Les deux sont possibles | Les deux sont possibles | Entraînement | Entraînement | Exécution | | Prix du travail | Prix basé sur la performance | Enchère inversée | Prix du marché | Prix du marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Cryptage&Hachage | Authentification mTLS | Cryptage des données | Mappage sécurisé | Cryptage | TEE | | Coût de travail | 0,5-5% par travail | 20% USDC, 4% AKT | 2% USDC, 0,25% de frais de réserve | Coût bas | 20% par session | Proportionnel au montant staké | | Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais | | Preuve de complétion | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de rendu | Preuve TEE | | Garantie de qualité | Controverse | - | - | Vérificateur et dénonciateur | Nœud de vérification | Preuve à distance | | GPU集群 | Non | Oui | Oui | Oui | Oui | Non |
Importance
disponibilité du calcul en cluster et parallèle
Le cadre de calcul distribué a mis en place un cluster GPU, offrant un entraînement plus efficace tout en améliorant l'évolutivité. L'entraînement de modèles AI complexes nécessite une puissance de calcul importante, s'appuyant souvent sur le calcul distribué. Par exemple, le modèle GPT-4 d'OpenAI possède plus de 18 trillions de paramètres, entraîné sur environ 25 000 GPU Nvidia A100 répartis sur 128 clusters pendant 3 à 4 mois.
La plupart des projets ont désormais intégré des clusters pour réaliser des calculs parallèles. io.net collabore avec d'autres projets pour intégrer davantage de GPU dans le réseau, avec plus de 3 800 clusters déployés au premier trimestre de 2024. Render ne prend pas en charge les clusters, mais décompose une seule image en plusieurs nœuds pour un traitement simultané, fonctionnant de manière similaire. Phala ne prend actuellement en charge que les CPU, mais permet la mise en cluster des travailleurs CPU.
confidentialité des données
Le développement de modèles d'IA nécessite de vastes ensembles de données, qui peuvent contenir des informations sensibles. Samsung a désactivé ChatGPT par crainte d'une fuite de code, et l'incident de fuite de données de 38 To de Microsoft souligne l'importance des mesures de sécurité en matière d'IA. Par conséquent, diverses méthodes de protection de la vie privée des données sont essentielles pour préserver le contrôle des données.
La plupart des projets utilisent une forme de chiffrement des données. Render utilise le chiffrement et le hachage lors de la publication des résultats de rendu, io.net et Gensyn adoptent le chiffrement des données, et Akash utilise l'authentification mTLS pour restreindre l'accès aux données.
io.net a récemment collaboré avec Mind Network pour lancer le chiffrement homomorphe complet (FHE), permettant de traiter des données chiffrées sans décryptage, offrant une meilleure protection de la vie privée des données par rapport aux technologies de chiffrement existantes.
Phala Network introduit un environnement d'exécution de confiance ( TEE ), empêchant les processus externes d'accéder ou de modifier les données. Il intègre également des zk-proofs dans le vérificateur zkDCAP et le jtee CLI, afin d'intégrer RiscZero zkVM.
preuve de calcul terminé et contrôle de qualité
En raison de la vaste gamme de services, allant du rendu au calcul AI, la qualité finale peut ne pas toujours répondre aux normes des utilisateurs. La validation et le contrôle de la qualité sont bénéfiques pour les utilisateurs.
Gensyn et Aethir génèrent des preuves de complétion, la preuve de io.net indique que les performances GPU sont pleinement exploitées. Gensyn et Aethir effectuent des contrôles de qualité, Gensyn utilise des validateurs et des rapporteurs, Aethir utilise des nœuds de vérification. Render recommande d'utiliser le processus de résolution des conflits. Phala génère des preuves TEE, garantissant que les agents IA exécutent les opérations nécessaires.
Statistiques matérielles
| | Rendu | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Quantité H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | 1,46 $ | 1,19 $ | - | - | - | | Coût A100/heure | - | $1.37 | $1.50 | $0.55 ( prévu ) | $0.33 ( prévu ) | - |
Demande de GPU haute performance
Les modèles d'IA ont tendance à utiliser des GPU haute performance tels que le Nvidia A100 et H100 pour l'entraînement. La performance d'inférence du H100 est quatre fois supérieure à celle du A100, ce qui en fait le choix privilégié des grandes entreprises pour l'entraînement des LLM.
Les fournisseurs de marché GPU décentralisés doivent proposer des prix plus bas et répondre aux besoins réels. En 2023, Nvidia a livré plus de 500 000 H100 aux grandes entreprises technologiques, rendant l'acquisition de matériel équivalent difficile. Par conséquent, il est crucial de considérer le nombre de matériels que ces projets peuvent introduire à faible coût pour élargir leur clientèle.
Akash n'a que plus de 150 H100 et A100, tandis qu'io.net et Aethir en ont tous deux plus de 2000. Les LLM pré-entraînés ou les modèles génératifs nécessitent généralement entre 248 et plus de 2000 clusters de GPU, donc les deux derniers projets sont plus adaptés au calcul de grands modèles.
Le coût des services GPU décentralisés est désormais inférieur à celui des services centralisés. Gensyn et Aethir affirment pouvoir louer du matériel de niveau A100 pour moins de 1 dollar de l'heure, mais cela prendra du temps pour le vérifier.
Comparé aux GPU connectés par NVLink, la mémoire des clusters de GPU connectés par réseau est limitée. NVLink permet la communication directe entre les GPU, ce qui est adapté aux LLM avec de grands paramètres et de grands ensembles de données. Néanmoins, le réseau GPU décentralisé offre toujours une puissance de calcul robuste et une évolutivité pour les tâches de calcul distribué, créant des opportunités pour développer davantage d'applications d'IA et de ML.
fournit des GPU/CPU de niveau consommateur
Le CPU joue également un rôle important dans l'entraînement des modèles d'IA, allant du prétraitement des données à la gestion de la mémoire. Les GPU grand public peuvent être utilisés pour affiner des modèles préentraînés ou entraîner des modèles de petite taille.
Considérant que plus de 85 % des ressources GPU des consommateurs sont inactives, des projets comme Render, Akash et io.net servent également ce marché. Offrir ces options leur permet de développer des marchés de niche, en se concentrant sur le calcul intensif à grande échelle, le rendu à petite échelle ou une combinaison des deux.
Conclusion
Le domaine DePIN de l'IA reste relativement émergent et fait face à des défis. Par exemple, io.net a été accusé de falsifier le nombre de GPU, mais a résolu le problème en introduisant un processus de preuve de travail.
Néanmoins, le nombre de tâches exécutées et de matériel sur ces réseaux GPU décentralisés a considérablement augmenté, soulignant la croissance de la demande pour des alternatives aux ressources matérielles des fournisseurs de cloud Web2. Parallèlement, l'augmentation du nombre de fournisseurs de matériel reflète une offre auparavant sous-exploitée. Cela prouve davantage l'adéquation produit-marché des réseaux AI DePIN, qui répondent efficacement aux défis de la demande et de l'offre.
Envisageant l'avenir, l'IA va se développer pour devenir un marché florissant de milliers de milliards de dollars. Ces réseaux GPU décentralisés joueront un rôle clé dans la fourniture d'alternatives de calcul rentables pour les développeurs. En continuant à combler l'écart entre l'offre et la demande, ces réseaux contribueront de manière significative au paysage futur de l'IA et des infrastructures informatiques.