Les défis de sécurité de DeFAI dans la tendance de fusion entre l'IA et le Web3
Récemment, un grand événement blockchain axé sur la tendance de la fusion entre l'IA et le Web3 s'est tenu à Istanbul, offrant une plateforme importante pour les discussions sur la sécurité du Web3 cette année. Des experts de plusieurs institutions renommées se sont réunis pour discuter en profondeur de l'état des applications de la technologie IA dans la finance décentralisée ( DeFi ) et des défis de sécurité qu'elle engendre.
Au cours de la réunion, "DeFAI" (finance décentralisée basée sur l'intelligence artificielle) est devenu un sujet de discussion brûlant. Les experts présents ont souligné qu'avec le développement rapide des grands modèles de langage (LLM) et des agents IA, un tout nouveau modèle financier - DeFAI - est en train de prendre forme. Cependant, cette innovation a également entraîné des voies d'attaque et des risques de sécurité sans précédent.
Un dirigeant d'une entreprise de sécurité a déclaré : "Bien que DeFAI ait un avenir prometteur, il nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents traditionnels, le processus décisionnel des agents d'IA est influencé par divers facteurs, tels que le contexte, le temps et même les interactions passées. Cette imprévisibilité augmente non seulement les risques, mais crée également des opportunités pour les attaquants potentiels."
Les agents IA sont essentiellement des entités intelligentes capables de prendre des décisions autonomes et d'exécuter des actions sur la base de la logique IA, généralement autorisées à fonctionner par des utilisateurs, des protocoles ou des DAO. Actuellement, les robots de trading IA en sont les représentants les plus typiques. La plupart des agents IA fonctionnent encore sur une architecture Web2, s'appuyant sur des serveurs centralisés et des API, ce qui les rend vulnérables à divers types d'attaques, telles que les attaques par injection, la manipulation de modèles ou la falsification de données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également évoqué un scénario d'attaque typique : lorsque l'agent de trading AI utilisé par les utilisateurs de DeFi surveille les informations des réseaux sociaux comme signaux de trading, les attaquants peuvent publier de fausses alertes, telles que "un certain protocole subit une attaque", incitant ainsi l'agent à déclencher immédiatement une liquidation d'urgence. Cela peut non seulement entraîner des pertes d'actifs pour les utilisateurs, mais aussi provoquer des fluctuations du marché, que les attaquants peuvent ensuite exploiter grâce à des transactions anticipées (Front Running).
Face à ces risques, les experts présents s'accordent à dire que la sécurité des agents IA doit être une responsabilité partagée entre les utilisateurs, les développeurs et les organismes de sécurité tiers. Les utilisateurs doivent définir clairement l'étendue des permissions des agents, accorder des autorisations avec prudence et surveiller de près les opérations à haut risque des agents IA. Les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que le renforcement des prompts, l'isolement en bac à sable, la limitation de la vitesse et des mécanismes de retour en arrière. Les entreprises de sécurité tierces doivent fournir un examen indépendant du comportement des modèles des agents IA, de l'infrastructure et des méthodes d'intégration sur la chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a finalement averti : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il ne s'agit que d'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Il a conseillé aux développeurs qui explorent la direction de DeFAI : "La logique comportementale des agents IA est également réalisée par du code. Puisqu'il s'agit de code, il existe un potentiel d'attaque, donc des audits de sécurité professionnels et des tests de pénétration sont nécessaires."
Cet événement blockchain, en tant que l'une des manifestations industrielles les plus influentes d'Europe, a attiré plus de 15 000 participants, y compris des développeurs, des porteurs de projets, des investisseurs et des régulateurs du monde entier. Avec le lancement officiel par les autorités de régulation des marchés de capitaux locaux de l'octroi de licences pour des projets blockchain, le statut de l'événement dans l'industrie a été encore renforcé.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
11 J'aime
Récompense
11
7
Reposter
Partager
Commentaire
0/400
alpha_leaker
· 07-10 03:06
Encore en train de spéculer sur de nouveaux termes, premier en audit Rug Pull
Voir l'originalRépondre0
AlwaysAnon
· 07-08 18:37
On parle encore de consensus. Avoir un consensus signifie-t-il vraiment que c'est sécurisé ?
Voir l'originalRépondre0
GateUser-beba108d
· 07-07 03:27
Vous vous préoccupez encore de la sécurité de la Finance décentralisée ? DeFai est le véritable fléau.
Voir l'originalRépondre0
DecentralizedElder
· 07-07 03:27
La vraie Décentralisation prendra probablement dix ou huit ans.
Voir l'originalRépondre0
StableGeniusDegen
· 07-07 03:23
Vérifiez le risque, commencez par exécuter un petit montant.
Voir l'originalRépondre0
GasFeeCry
· 07-07 03:22
piège piége piége, lequel projet est fiable ?
Voir l'originalRépondre0
NewPumpamentals
· 07-07 03:07
Le code ne peut échapper à l'audit de la Blockchain.
L'émergence de DeFAI soulève de nouveaux défis en matière de sécurité. Les experts appellent à renforcer l'audit des agents IA.
Les défis de sécurité de DeFAI dans la tendance de fusion entre l'IA et le Web3
Récemment, un grand événement blockchain axé sur la tendance de la fusion entre l'IA et le Web3 s'est tenu à Istanbul, offrant une plateforme importante pour les discussions sur la sécurité du Web3 cette année. Des experts de plusieurs institutions renommées se sont réunis pour discuter en profondeur de l'état des applications de la technologie IA dans la finance décentralisée ( DeFi ) et des défis de sécurité qu'elle engendre.
Au cours de la réunion, "DeFAI" (finance décentralisée basée sur l'intelligence artificielle) est devenu un sujet de discussion brûlant. Les experts présents ont souligné qu'avec le développement rapide des grands modèles de langage (LLM) et des agents IA, un tout nouveau modèle financier - DeFAI - est en train de prendre forme. Cependant, cette innovation a également entraîné des voies d'attaque et des risques de sécurité sans précédent.
Un dirigeant d'une entreprise de sécurité a déclaré : "Bien que DeFAI ait un avenir prometteur, il nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents traditionnels, le processus décisionnel des agents d'IA est influencé par divers facteurs, tels que le contexte, le temps et même les interactions passées. Cette imprévisibilité augmente non seulement les risques, mais crée également des opportunités pour les attaquants potentiels."
Les agents IA sont essentiellement des entités intelligentes capables de prendre des décisions autonomes et d'exécuter des actions sur la base de la logique IA, généralement autorisées à fonctionner par des utilisateurs, des protocoles ou des DAO. Actuellement, les robots de trading IA en sont les représentants les plus typiques. La plupart des agents IA fonctionnent encore sur une architecture Web2, s'appuyant sur des serveurs centralisés et des API, ce qui les rend vulnérables à divers types d'attaques, telles que les attaques par injection, la manipulation de modèles ou la falsification de données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également évoqué un scénario d'attaque typique : lorsque l'agent de trading AI utilisé par les utilisateurs de DeFi surveille les informations des réseaux sociaux comme signaux de trading, les attaquants peuvent publier de fausses alertes, telles que "un certain protocole subit une attaque", incitant ainsi l'agent à déclencher immédiatement une liquidation d'urgence. Cela peut non seulement entraîner des pertes d'actifs pour les utilisateurs, mais aussi provoquer des fluctuations du marché, que les attaquants peuvent ensuite exploiter grâce à des transactions anticipées (Front Running).
Face à ces risques, les experts présents s'accordent à dire que la sécurité des agents IA doit être une responsabilité partagée entre les utilisateurs, les développeurs et les organismes de sécurité tiers. Les utilisateurs doivent définir clairement l'étendue des permissions des agents, accorder des autorisations avec prudence et surveiller de près les opérations à haut risque des agents IA. Les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que le renforcement des prompts, l'isolement en bac à sable, la limitation de la vitesse et des mécanismes de retour en arrière. Les entreprises de sécurité tierces doivent fournir un examen indépendant du comportement des modèles des agents IA, de l'infrastructure et des méthodes d'intégration sur la chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a finalement averti : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il ne s'agit que d'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Il a conseillé aux développeurs qui explorent la direction de DeFAI : "La logique comportementale des agents IA est également réalisée par du code. Puisqu'il s'agit de code, il existe un potentiel d'attaque, donc des audits de sécurité professionnels et des tests de pénétration sont nécessaires."
Cet événement blockchain, en tant que l'une des manifestations industrielles les plus influentes d'Europe, a attiré plus de 15 000 participants, y compris des développeurs, des porteurs de projets, des investisseurs et des régulateurs du monde entier. Avec le lancement officiel par les autorités de régulation des marchés de capitaux locaux de l'octroi de licences pour des projets blockchain, le statut de l'événement dans l'industrie a été encore renforcé.