Rede DePIN de IA: O futuro da computação GPU descentralizada
Desde 2023, a IA e o DePIN tornaram-se tendências populares no domínio do Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo foca a interseção entre os dois, explorando o desenvolvimento dos protocolos relacionados.
Na pilha de tecnologia de IA, a rede DePIN capacita a IA ao fornecer recursos computacionais. A escassez de GPUs causada por grandes empresas de tecnologia dificulta que outros desenvolvedores de IA obtenham potência computacional suficiente de GPU. A abordagem tradicional é optar por prestadores de serviços de nuvem centralizados, mas é necessário assinar contratos de longo prazo inflexíveis e ineficientes.
DePIN oferece uma alternativa mais flexível e economicamente viável, incentivando contribuições de recursos que atendem aos objetivos da rede através de tokens. O DePIN no campo da IA integra recursos de GPU pessoais em data centers, proporcionando uma oferta unificada aos usuários. Isso não só oferece aos desenvolvedores acesso personalizado e sob demanda, mas também cria receitas adicionais para os proprietários de GPUs.
Existem muitos redes DePIN de IA no mercado, este artigo irá explorar o papel, os objetivos e os destaques de cada protocolo, bem como as suas diferenças.
Visão Geral da Rede DePIN de IA
Render
Render é o pioneiro da rede de computação GPU P2P, inicialmente focado em renderização gráfica, e depois expandiu-se para tarefas de computação de IA.
Destaques:
Fundada pela OTOY, uma empresa premiada com o Oscar da Tecnologia
A rede GPU é utilizada por grandes empresas de entretenimento como a Paramount e PUBG
Colaborar com a Stability AI e integrar modelos de IA com fluxos de trabalho de renderização de conteúdo 3D
Aprovar múltiplos clientes de computação, integrar mais GPUs da rede DePIN.
Akash
Akash é posicionado como uma plataforma de "super nuvem" que suporta armazenamento, computação em GPU e CPU, servindo como uma alternativa a plataformas tradicionais como a AWS. Utilizando uma plataforma de contêineres e nós de computação geridos pelo Kubernetes, é possível implantar qualquer aplicação nativa da nuvem de forma integrada.
Destaques:
Voltado para uma ampla gama de tarefas computacionais, desde computação geral até hospedagem na web
AkashML permite executar mais de 15.000 modelos na Hugging Face
Aplicações importantes como o chatbot LLM da Mistral AI, SDXL da Stability AI, entre outras.
A plataforma de metaverso, implementação de IA e aprendizado federado está utilizando sua supernuvem
io.net
A io.net oferece acesso a um cluster de GPU em nuvem distribuído, especificamente para AI e ML, agregando recursos de GPU de centros de dados, mineradores e outros.
Destaques:
O IO-SDK é compatível com frameworks como PyTorch e Tensorflow, podendo ser automaticamente escalado conforme a necessidade.
Suporta a criação de 3 tipos diferentes de clusters, podendo ser iniciado em 2 minutos.
Integrar GPUs de outras redes DePIN em colaboração com Render, Filecoin e outros
Gensyn
A Gensyn oferece capacidade de computação em GPU focada em aprendizado de máquina e aprendizado profundo. Através de tecnologias como provas de aprendizado, implementa um mecanismo de validação mais eficiente.
Destaques:
O custo por hora do GPU V100 é de aproximadamente 0,40 dólares, o que representa uma grande economia.
Pode ajustar o modelo base pré-treinado para realizar tarefas mais específicas
O modelo básico será descentralizado, globalmente compartilhado, proporcionando funcionalidades adicionais
Aethir
Aethir é especializado na implementação de GPU de nível empresarial, focando em áreas de computação intensiva como IA, ML e jogos na nuvem. Os contêineres na rede atuam como pontos finais virtuais para a execução de aplicações em nuvem, proporcionando uma experiência de baixa latência.
Destaques:
Expandir para o serviço de telefone na nuvem, lançar um telefone na nuvem descentralizado em colaboração com a APhone.
Estabelecer ampla colaboração com grandes empresas Web2 como NVIDIA e HPE.
Com vários parceiros Web3, como CARV, Magic Eden
Phala Network
A Phala Network, como camada de execução para soluções de IA Web3, utiliza o ambiente de execução confiável (TEE) para lidar com questões de privacidade. Isso permite que agentes de IA sejam controlados por contratos inteligentes na blockchain.
Destaques:
Como um protocolo de coprocessador de computação verificável, capacita os agentes de IA com recursos na blockchain.
Os contratos de AI代理 podem ser obtidos através da Redpill, incluindo os principais modelos de linguagem como o OpenAI.
O futuro incluirá sistemas de múltiplas provas como zk-proofs, MPC, FHE, entre outros.
Futuramente suportará GPU TEE como H100, melhorando a capacidade de cálculo
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | IA, Jogos em Nuvem e Telecomunicações | Execução de IA em Blockchain |
| Tipo de tarefa de IA | Inferência | Ambos | Ambos | Treinamento | Treinamento | Execução |
| Preço de Trabalho | Preço Baseado em Desempenho | Leilão Reverso | Preço de Mercado | Preço de Mercado | Sistema de Licitação | Cálculo de Direitos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privacidade de Dados | Criptografia&Hash | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE |
| Custos de trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Custos baixos | 20% por sessão | Proporcional ao valor em staking |
| Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia Intermediária |
| Prova de conclusão | - | - | Prova de bloqueio de tempo | Prova de aprendizado | Prova de trabalho de renderização | Prova de TEE |
| Garantia de Qualidade | Controvérsia | - | - | Verificador e Denunciante | Nó de Verificação | Prova Remota |
| Cluster de GPU | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de computação em cluster e paralela
A estrutura de computação distribuída implementou um cluster de GPU, proporcionando um treinamento mais eficiente e ao mesmo tempo melhorando a escalabilidade. Treinar modelos de IA complexos requer uma potência de cálculo robusta, geralmente dependendo da computação distribuída. Por exemplo, o modelo GPT-4 da OpenAI possui mais de 1,8 trilhão de parâmetros, e foi treinado em cerca de 25.000 GPUs Nvidia A100 em 128 clusters ao longo de 3-4 meses.
A maioria dos projetos agora integrou clusters para realizar computação paralela. A io.net, em colaboração com outros projetos, incorporou mais GPUs à rede e já implantou mais de 3.800 clusters no primeiro trimestre de 2024. Embora a Render não suporte clusters, ela divide um único quadro em vários nós para processamento simultâneo, funcionando de forma semelhante. A Phala atualmente suporta apenas CPU, mas permite a formação de clusters de trabalhadores CPU.
privacidade de dados
O desenvolvimento de modelos de IA requer grandes conjuntos de dados, que podem conter informações sensíveis. A Samsung desativou o ChatGPT devido ao receio de vazamento de código, e o incidente de vazamento de 38TB de dados da Microsoft destacou a importância das medidas de segurança em IA. Portanto, vários métodos de privacidade de dados são cruciais para proteger o controle sobre os dados.
A maioria dos projetos utiliza alguma forma de criptografia de dados. O Render utiliza criptografia e hash ao publicar os resultados de renderização, io.net e Gensyn adotam criptografia de dados, e o Akash utiliza autenticação mTLS para restringir o acesso aos dados.
A io.net recentemente colaborou com a Mind Network para lançar a criptografia homomórfica completamente homomórfica (FHE), permitindo o processamento de dados criptografados sem a necessidade de descriptografar, protegendo a privacidade dos dados melhor do que as tecnologias de criptografia existentes.
A Phala Network introduz um ambiente de execução confiável ( TEE ), para impedir que processos externos acessem ou modifiquem dados. Ela também integra provas zk no zkDCAP verificador e na jtee CLI, para integrar o RiscZero zkVM.
Prova de cálculo concluído e inspeção de qualidade
Devido à ampla gama de serviços, desde rendering até computação AI, a qualidade final pode não corresponder sempre aos padrões dos usuários. A conclusão de provas e verificações de qualidade é benéfica para os usuários.
A Gensyn e a Aethir geram provas de conclusão, a prova do io.net indica que o desempenho da GPU está sendo totalmente aproveitado. A Gensyn e a Aethir realizam verificações de qualidade, a Gensyn utiliza validadores e denunciantes, enquanto a Aethir utiliza nós de verificação. O Render sugere o uso de um processo de resolução de disputas. A Phala gera provas de TEE, garantindo que os agentes de IA executem as operações necessárias.
Os modelos de IA tendem a usar GPUs de alto desempenho, como a Nvidia A100 e H100, para treinamento. O desempenho de inferência da H100 é 4 vezes superior ao da A100, tornando-se a escolha preferida das grandes empresas para treinar LLMs.
Os fornecedores de mercado de GPU descentralizados precisam oferecer preços mais baixos e atender à demanda real. Em 2023, a Nvidia entregou mais de 500.000 H100 para grandes empresas de tecnologia, tornando difícil a obtenção de hardware equivalente. Portanto, considerar o número de hardware que esses projetos podem introduzir a um custo baixo é crucial para expandir a base de clientes.
Akash tem apenas mais de 150 H100 e A100, enquanto io.net e Aethir têm mais de 2000 cada. Modelos de linguagem pré-treinados ou modelos geradores normalmente requerem de 248 a mais de 2000 clusters de GPU, portanto, os dois últimos projetos são mais adequados para computação de modelos grandes.
O custo dos serviços de GPU descentralizados já é inferior ao dos serviços centralizados. A Gensyn e a Aethir afirmam que é possível alugar hardware de nível A100 por menos de 1 dólar por hora, mas ainda será necessário tempo para verificar.
Em comparação com GPUs conectadas por NVLink, a memória dos clusters de GPUs conectados por rede é limitada. O NVLink suporta comunicação direta entre GPUs, sendo adequado para LLM com grandes parâmetros e grandes conjuntos de dados. Apesar disso, as redes de GPUs descentralizadas ainda oferecem uma poderosa capacidade de computação e escalabilidade para tarefas de computação distribuída, criando oportunidades para construir mais casos de uso em IA e ML.
fornece GPU/CPU de nível de consumo
A CPU também desempenha um papel importante no treinamento de modelos de IA, desde o pré-processamento de dados até a gestão de memória. GPUs de consumo podem ser usadas para ajustar modelos pré-treinados ou treinar modelos de pequena escala.
Considerando que mais de 85% dos recursos da GPU dos consumidores estão ociosos, projetos como Render, Akash e io.net também atendem a este mercado. Oferecer essas opções permite que eles desenvolvam nichos de mercado, focando em computação intensiva em larga escala, renderização em pequena escala ou uma combinação de ambos.
Conclusão
O campo DePIN de IA ainda é relativamente emergente e enfrenta desafios. Por exemplo, a io.net foi acusada de falsificar a quantidade de GPUs, mas resolveu o problema ao introduzir um processo de prova de trabalho.
Apesar disso, o número de tarefas executadas e de hardware nas redes GPU descentralizadas aumentou significativamente, destacando o crescimento da demanda por alternativas aos recursos de hardware dos provedores de nuvem Web2. Ao mesmo tempo, o aumento dos fornecedores de hardware reflete uma oferta que antes não havia sido totalmente aproveitada. Isso comprova ainda mais o ajuste do mercado de produtos das redes AI DePIN, resolvendo efetivamente os desafios de demanda e oferta.
Olhando para o futuro, a IA desenvolver-se-á num mercado de trilhões de dólares em rápida expansão. Estas redes de GPU descentralizadas desempenharão um papel crucial em fornecer soluções de computação econômicas e eficientes para os desenvolvedores. Ao continuar a reduzir a lacuna entre a demanda e a oferta, estas redes farão contribuições significativas para o futuro da IA e da infraestrutura de computação.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
10 gostos
Recompensa
10
4
Partilhar
Comentar
0/400
SpeakWithHatOn
· 08-06 07:46
Ainda a negociar depin? Quanto mais cedo morrer, mais cedo renascer.
Ver originalResponder0
SmartContractPlumber
· 08-06 07:46
Este código ainda precisa ser auditado, não deixe vulnerabilidades à vista.
Ver originalResponder0
HodlNerd
· 08-06 07:45
teoria dos jogos fascinante em ação... pools de GPU descentralizados são a próxima evolução lógica, para ser honesto
Ver originalResponder0
PanicSeller
· 08-06 07:34
Só falta uma placa gráfica, olha o que essa gente consegue.
Ascensão da rede DePIN de IA: a computação GPU descentralizada lidera uma nova tendência
Rede DePIN de IA: O futuro da computação GPU descentralizada
Desde 2023, a IA e o DePIN tornaram-se tendências populares no domínio do Web3, com um valor de mercado de 30 mil milhões de dólares e 23 mil milhões de dólares, respetivamente. Este artigo foca a interseção entre os dois, explorando o desenvolvimento dos protocolos relacionados.
Na pilha de tecnologia de IA, a rede DePIN capacita a IA ao fornecer recursos computacionais. A escassez de GPUs causada por grandes empresas de tecnologia dificulta que outros desenvolvedores de IA obtenham potência computacional suficiente de GPU. A abordagem tradicional é optar por prestadores de serviços de nuvem centralizados, mas é necessário assinar contratos de longo prazo inflexíveis e ineficientes.
DePIN oferece uma alternativa mais flexível e economicamente viável, incentivando contribuições de recursos que atendem aos objetivos da rede através de tokens. O DePIN no campo da IA integra recursos de GPU pessoais em data centers, proporcionando uma oferta unificada aos usuários. Isso não só oferece aos desenvolvedores acesso personalizado e sob demanda, mas também cria receitas adicionais para os proprietários de GPUs.
Existem muitos redes DePIN de IA no mercado, este artigo irá explorar o papel, os objetivos e os destaques de cada protocolo, bem como as suas diferenças.
Visão Geral da Rede DePIN de IA
Render
Render é o pioneiro da rede de computação GPU P2P, inicialmente focado em renderização gráfica, e depois expandiu-se para tarefas de computação de IA.
Destaques:
Akash
Akash é posicionado como uma plataforma de "super nuvem" que suporta armazenamento, computação em GPU e CPU, servindo como uma alternativa a plataformas tradicionais como a AWS. Utilizando uma plataforma de contêineres e nós de computação geridos pelo Kubernetes, é possível implantar qualquer aplicação nativa da nuvem de forma integrada.
Destaques:
io.net
A io.net oferece acesso a um cluster de GPU em nuvem distribuído, especificamente para AI e ML, agregando recursos de GPU de centros de dados, mineradores e outros.
Destaques:
Gensyn
A Gensyn oferece capacidade de computação em GPU focada em aprendizado de máquina e aprendizado profundo. Através de tecnologias como provas de aprendizado, implementa um mecanismo de validação mais eficiente.
Destaques:
Aethir
Aethir é especializado na implementação de GPU de nível empresarial, focando em áreas de computação intensiva como IA, ML e jogos na nuvem. Os contêineres na rede atuam como pontos finais virtuais para a execução de aplicações em nuvem, proporcionando uma experiência de baixa latência.
Destaques:
Phala Network
A Phala Network, como camada de execução para soluções de IA Web3, utiliza o ambiente de execução confiável (TEE) para lidar com questões de privacidade. Isso permite que agentes de IA sejam controlados por contratos inteligentes na blockchain.
Destaques:
Comparação de Projetos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Foco de Negócios | Renderização Gráfica e IA | Computação em Nuvem, Renderização e IA | IA | IA | IA, Jogos em Nuvem e Telecomunicações | Execução de IA em Blockchain | | Tipo de tarefa de IA | Inferência | Ambos | Ambos | Treinamento | Treinamento | Execução | | Preço de Trabalho | Preço Baseado em Desempenho | Leilão Reverso | Preço de Mercado | Preço de Mercado | Sistema de Licitação | Cálculo de Direitos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidade de Dados | Criptografia&Hash | Autenticação mTLS | Criptografia de Dados | Mapeamento Seguro | Criptografia | TEE | | Custos de trabalho | 0,5-5% por trabalho | 20% USDC, 4% AKT | 2% USDC, 0,25% taxa de reserva | Custos baixos | 20% por sessão | Proporcional ao valor em staking | | Segurança | Prova de Renderização | Prova de Participação | Prova de Cálculo | Prova de Participação | Prova de Capacidade de Renderização | Herdado da Cadeia Intermediária | | Prova de conclusão | - | - | Prova de bloqueio de tempo | Prova de aprendizado | Prova de trabalho de renderização | Prova de TEE | | Garantia de Qualidade | Controvérsia | - | - | Verificador e Denunciante | Nó de Verificação | Prova Remota | | Cluster de GPU | Não | Sim | Sim | Sim | Sim | Não |
Importância
Disponibilidade de computação em cluster e paralela
A estrutura de computação distribuída implementou um cluster de GPU, proporcionando um treinamento mais eficiente e ao mesmo tempo melhorando a escalabilidade. Treinar modelos de IA complexos requer uma potência de cálculo robusta, geralmente dependendo da computação distribuída. Por exemplo, o modelo GPT-4 da OpenAI possui mais de 1,8 trilhão de parâmetros, e foi treinado em cerca de 25.000 GPUs Nvidia A100 em 128 clusters ao longo de 3-4 meses.
A maioria dos projetos agora integrou clusters para realizar computação paralela. A io.net, em colaboração com outros projetos, incorporou mais GPUs à rede e já implantou mais de 3.800 clusters no primeiro trimestre de 2024. Embora a Render não suporte clusters, ela divide um único quadro em vários nós para processamento simultâneo, funcionando de forma semelhante. A Phala atualmente suporta apenas CPU, mas permite a formação de clusters de trabalhadores CPU.
privacidade de dados
O desenvolvimento de modelos de IA requer grandes conjuntos de dados, que podem conter informações sensíveis. A Samsung desativou o ChatGPT devido ao receio de vazamento de código, e o incidente de vazamento de 38TB de dados da Microsoft destacou a importância das medidas de segurança em IA. Portanto, vários métodos de privacidade de dados são cruciais para proteger o controle sobre os dados.
A maioria dos projetos utiliza alguma forma de criptografia de dados. O Render utiliza criptografia e hash ao publicar os resultados de renderização, io.net e Gensyn adotam criptografia de dados, e o Akash utiliza autenticação mTLS para restringir o acesso aos dados.
A io.net recentemente colaborou com a Mind Network para lançar a criptografia homomórfica completamente homomórfica (FHE), permitindo o processamento de dados criptografados sem a necessidade de descriptografar, protegendo a privacidade dos dados melhor do que as tecnologias de criptografia existentes.
A Phala Network introduz um ambiente de execução confiável ( TEE ), para impedir que processos externos acessem ou modifiquem dados. Ela também integra provas zk no zkDCAP verificador e na jtee CLI, para integrar o RiscZero zkVM.
Prova de cálculo concluído e inspeção de qualidade
Devido à ampla gama de serviços, desde rendering até computação AI, a qualidade final pode não corresponder sempre aos padrões dos usuários. A conclusão de provas e verificações de qualidade é benéfica para os usuários.
A Gensyn e a Aethir geram provas de conclusão, a prova do io.net indica que o desempenho da GPU está sendo totalmente aproveitado. A Gensyn e a Aethir realizam verificações de qualidade, a Gensyn utiliza validadores e denunciantes, enquanto a Aethir utiliza nós de verificação. O Render sugere o uso de um processo de resolução de disputas. A Phala gera provas de TEE, garantindo que os agentes de IA executem as operações necessárias.
Estatísticas de Hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Número de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Número de CPUs | 114 | 14672 | 5433 | - | - | 30000+ | | Quantidade H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Custo H100/hora | - | $1.46 | $1.19 | - | - | - | | Custo A100/hora | - | $1.37 | $1.50 | $0.55 ( previsto ) | $0.33 ( previsto ) | - |
Demanda por GPU de alto desempenho
Os modelos de IA tendem a usar GPUs de alto desempenho, como a Nvidia A100 e H100, para treinamento. O desempenho de inferência da H100 é 4 vezes superior ao da A100, tornando-se a escolha preferida das grandes empresas para treinar LLMs.
Os fornecedores de mercado de GPU descentralizados precisam oferecer preços mais baixos e atender à demanda real. Em 2023, a Nvidia entregou mais de 500.000 H100 para grandes empresas de tecnologia, tornando difícil a obtenção de hardware equivalente. Portanto, considerar o número de hardware que esses projetos podem introduzir a um custo baixo é crucial para expandir a base de clientes.
Akash tem apenas mais de 150 H100 e A100, enquanto io.net e Aethir têm mais de 2000 cada. Modelos de linguagem pré-treinados ou modelos geradores normalmente requerem de 248 a mais de 2000 clusters de GPU, portanto, os dois últimos projetos são mais adequados para computação de modelos grandes.
O custo dos serviços de GPU descentralizados já é inferior ao dos serviços centralizados. A Gensyn e a Aethir afirmam que é possível alugar hardware de nível A100 por menos de 1 dólar por hora, mas ainda será necessário tempo para verificar.
Em comparação com GPUs conectadas por NVLink, a memória dos clusters de GPUs conectados por rede é limitada. O NVLink suporta comunicação direta entre GPUs, sendo adequado para LLM com grandes parâmetros e grandes conjuntos de dados. Apesar disso, as redes de GPUs descentralizadas ainda oferecem uma poderosa capacidade de computação e escalabilidade para tarefas de computação distribuída, criando oportunidades para construir mais casos de uso em IA e ML.
fornece GPU/CPU de nível de consumo
A CPU também desempenha um papel importante no treinamento de modelos de IA, desde o pré-processamento de dados até a gestão de memória. GPUs de consumo podem ser usadas para ajustar modelos pré-treinados ou treinar modelos de pequena escala.
Considerando que mais de 85% dos recursos da GPU dos consumidores estão ociosos, projetos como Render, Akash e io.net também atendem a este mercado. Oferecer essas opções permite que eles desenvolvam nichos de mercado, focando em computação intensiva em larga escala, renderização em pequena escala ou uma combinação de ambos.
Conclusão
O campo DePIN de IA ainda é relativamente emergente e enfrenta desafios. Por exemplo, a io.net foi acusada de falsificar a quantidade de GPUs, mas resolveu o problema ao introduzir um processo de prova de trabalho.
Apesar disso, o número de tarefas executadas e de hardware nas redes GPU descentralizadas aumentou significativamente, destacando o crescimento da demanda por alternativas aos recursos de hardware dos provedores de nuvem Web2. Ao mesmo tempo, o aumento dos fornecedores de hardware reflete uma oferta que antes não havia sido totalmente aproveitada. Isso comprova ainda mais o ajuste do mercado de produtos das redes AI DePIN, resolvendo efetivamente os desafios de demanda e oferta.
Olhando para o futuro, a IA desenvolver-se-á num mercado de trilhões de dólares em rápida expansão. Estas redes de GPU descentralizadas desempenharão um papel crucial em fornecer soluções de computação econômicas e eficientes para os desenvolvedores. Ao continuar a reduzir a lacuna entre a demanda e a oferta, estas redes farão contribuições significativas para o futuro da IA e da infraestrutura de computação.