Безопасные вызовы DeFAI в условиях тенденции слияния AI и Web3
Недавно в Стамбуле прошла блокчейн-конференция, сосредоточенная на тенденциях интеграции AI и Web3, которая предоставила важную платформу для обсуждения вопросов безопасности в области Web3 в этом году. Эксперты из множества известных организаций собрались вместе, чтобы глубоко обсудить текущее состояние применения AI-технологий в децентрализованных финансах (DeFi) и связанные с этим проблемы безопасности.
В ходе конференции тема "DeFAI" (децентрализованные финансовые технологии на базе искусственного интеллекта) стала предметом горячих обсуждений. Участники отметили, что с быстрым развитием больших языковых моделей (LLM) и AI-агентов формируется совершенно новая финансовая модель — DeFAI. Однако эта инновация также принесла небывалые пути атак и риски безопасности.
"Хотя DeFAI имеет большие перспективы, это также заставляет нас пересмотреть механизмы доверия в децентрализованных системах," - заявил высокопоставленный сотрудник компании по безопасности. "В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агентов подвержен влиянию множества факторов, таких как контекст, время и даже исторические взаимодействия. Эта непредсказуемость не только увеличивает риски, но и создает возможности для потенциальных злоумышленников."
AI-агенты по сути представляют собой интеллектуальные сущности, способные принимать самостоятельные решения и выполнять действия на основе логики ИИ, обычно действующие по полномочиям пользователей, протоколов или DAO. В настоящее время AI-торговые роботы являются их наиболее типичным представителем. Большинство AI-агентов по-прежнему функционируют на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как инъекционные атаки, манипуляции с моделями или подделка данных. В случае захвата это может не только привести к финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также упомянули типичный сценарий атаки: когда AI-торговый агент, используемый пользователями DeFi, следит за информацией в социальных сетях в качестве торговых сигналов, злоумышленник может опубликовать ложные предупреждения, такие как "протокол подвергся атаке", что может заставить агента немедленно запустить экстренную ликвидацию. Это не только приведет к потерям активов пользователей, но также может вызвать рыночные колебания, которые затем могут быть использованы злоумышленниками через фронт-раннинг (Front Running).
По этим рискам эксперты, участвующие в обсуждении, единодушно считают, что безопасность AI-агентов должна быть совместной ответственностью пользователей, разработчиков и третьих сторон безопасных организаций. Пользователи должны четко понимать объем полномочий агентов, осторожно предоставлять разрешения и внимательно следить за высокими рисками операций AI-агентов. Разработчики должны внедрять меры защиты уже на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Третьи стороны безопасных компаний должны предоставлять независимый обзор поведения моделей AI-агентов, инфраструктуры и способов интеграции в цепочку, а также сотрудничать с разработчиками и пользователями для выявления рисков и предложения мер по их смягчению.
Безопасный эксперт в конце концов предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире - это всего лишь вопрос времени." Он порекомендовал разработчикам, исследующим направление DeFAI: "Логика поведения AI-агентов также реализована кодом. Поскольку это код, существует возможность атак, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
Это блокчейн-мероприятие, являющееся одним из самых влиятельных отраслевых событий в Европе, привлекло более 15 000 участников, включая разработчиков, проектные команды, инвесторов и регуляторов со всего мира. С учетом того, что местные регулирующие органы капитального рынка официально начали выдачу лицензий на блокчейн-проекты, статус мероприятия в отрасли стал еще выше.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
11 Лайков
Награда
11
7
Репост
Поделиться
комментарий
0/400
alpha_leaker
· 07-10 03:06
Снова обсуждают новые термины, аудит Мошенничество на первом месте
Посмотреть ОригиналОтветить0
AlwaysAnon
· 07-08 18:37
Снова говорят о Соглашении. Если есть Соглашение, это действительно безопасно?
Посмотреть ОригиналОтветить0
GateUser-beba108d
· 07-07 03:27
Все еще беспокоитесь о безопасности Децентрализованных финансов? DeFai - это действительно бедствие.
Посмотреть ОригиналОтветить0
DecentralizedElder
· 07-07 03:27
Настоящая Децентрализация, вероятно, займет десять лет или более.
Посмотреть ОригиналОтветить0
StableGeniusDegen
· 07-07 03:23
Проверка риска. Сначала проведите небольшую транзакцию.
Возникновение DeFAI вызвало новые проблемы безопасности, эксперты призывают усилить аудит AI-агентов.
Безопасные вызовы DeFAI в условиях тенденции слияния AI и Web3
Недавно в Стамбуле прошла блокчейн-конференция, сосредоточенная на тенденциях интеграции AI и Web3, которая предоставила важную платформу для обсуждения вопросов безопасности в области Web3 в этом году. Эксперты из множества известных организаций собрались вместе, чтобы глубоко обсудить текущее состояние применения AI-технологий в децентрализованных финансах (DeFi) и связанные с этим проблемы безопасности.
В ходе конференции тема "DeFAI" (децентрализованные финансовые технологии на базе искусственного интеллекта) стала предметом горячих обсуждений. Участники отметили, что с быстрым развитием больших языковых моделей (LLM) и AI-агентов формируется совершенно новая финансовая модель — DeFAI. Однако эта инновация также принесла небывалые пути атак и риски безопасности.
"Хотя DeFAI имеет большие перспективы, это также заставляет нас пересмотреть механизмы доверия в децентрализованных системах," - заявил высокопоставленный сотрудник компании по безопасности. "В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агентов подвержен влиянию множества факторов, таких как контекст, время и даже исторические взаимодействия. Эта непредсказуемость не только увеличивает риски, но и создает возможности для потенциальных злоумышленников."
AI-агенты по сути представляют собой интеллектуальные сущности, способные принимать самостоятельные решения и выполнять действия на основе логики ИИ, обычно действующие по полномочиям пользователей, протоколов или DAO. В настоящее время AI-торговые роботы являются их наиболее типичным представителем. Большинство AI-агентов по-прежнему функционируют на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как инъекционные атаки, манипуляции с моделями или подделка данных. В случае захвата это может не только привести к финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также упомянули типичный сценарий атаки: когда AI-торговый агент, используемый пользователями DeFi, следит за информацией в социальных сетях в качестве торговых сигналов, злоумышленник может опубликовать ложные предупреждения, такие как "протокол подвергся атаке", что может заставить агента немедленно запустить экстренную ликвидацию. Это не только приведет к потерям активов пользователей, но также может вызвать рыночные колебания, которые затем могут быть использованы злоумышленниками через фронт-раннинг (Front Running).
По этим рискам эксперты, участвующие в обсуждении, единодушно считают, что безопасность AI-агентов должна быть совместной ответственностью пользователей, разработчиков и третьих сторон безопасных организаций. Пользователи должны четко понимать объем полномочий агентов, осторожно предоставлять разрешения и внимательно следить за высокими рисками операций AI-агентов. Разработчики должны внедрять меры защиты уже на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Третьи стороны безопасных компаний должны предоставлять независимый обзор поведения моделей AI-агентов, инфраструктуры и способов интеграции в цепочку, а также сотрудничать с разработчиками и пользователями для выявления рисков и предложения мер по их смягчению.
Безопасный эксперт в конце концов предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире - это всего лишь вопрос времени." Он порекомендовал разработчикам, исследующим направление DeFAI: "Логика поведения AI-агентов также реализована кодом. Поскольку это код, существует возможность атак, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
Это блокчейн-мероприятие, являющееся одним из самых влиятельных отраслевых событий в Европе, привлекло более 15 000 участников, включая разработчиков, проектные команды, инвесторов и регуляторов со всего мира. С учетом того, что местные регулирующие органы капитального рынка официально начали выдачу лицензий на блокчейн-проекты, статус мероприятия в отрасли стал еще выше.