التحديات الأمنية لـ DeFAI في ظل دمج الذكاء الاصطناعي و Web3
مؤخراً، أقيمت فعالية كبيرة تركز على اتجاه دمج الذكاء الاصطناعي وWeb3 في إسطنبول، مما وفر منصة مهمة لمناقشات هذا العام في مجال أمان Web3. اجتمع خبراء من العديد من المؤسسات المعروفة لتناول تطبيقات تكنولوجيا الذكاء الاصطناعي في التمويل اللامركزي (DeFi) والتحديات الأمنية التي تطرأ نتيجة لذلك.
خلال المؤتمر، أصبح "DeFAI" (التمويل الذكي اللامركزي) موضوعًا ساخنًا للنقاش. أشار الخبراء الحاضرون إلى أنه مع التطور السريع لنماذج اللغة الكبيرة (LLM) ووكلاء الذكاء الاصطناعي، تتشكل نموذج مالي جديد تمامًا - DeFAI. ومع ذلك، فإن هذه الابتكارات تجلب أيضًا طرق هجوم غير مسبوقة ومخاطر أمنية.
قال أحد التنفيذيين في شركة الأمن: "على الرغم من أن DeFAI لديه آفاق واسعة، إلا أنه يجبرنا على إعادة النظر في آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية التقليدية، تتأثر عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي بعدة عوامل، مثل السياق، الوقت، وحتى التفاعلات التاريخية. هذه الطبيعة غير القابلة للتنبؤ لا تزيد من المخاطر فحسب، بل تخلق أيضًا فرصًا للمهاجمين المحتملين."
الوكيل الذكي المدعوم بالذكاء الاصطناعي هو في الأساس كيان قادر على اتخاذ القرارات وتنفيذها بشكل مستقل بناءً على منطق الذكاء الاصطناعي، وعادة ما يتم تفويضه من قبل المستخدمين أو البروتوكولات أو المنظمات المستقلة (DAO). في الوقت الحالي، تعتبر روبوتات التداول المدعومة بالذكاء الاصطناعي هي الأكثر تمثيلاً لذلك. لا يزال معظم الوكلاء الذكيين يعملون على بنية تحتية من الجيل الثاني للويب (Web2)، مما يعتمد على الخوادم المركزية وواجهات برمجة التطبيقات (API)، مما يجعلهم عرضة لمجموعة متنوعة من الهجمات مثل هجمات الحقن والتلاعب بالنماذج أو العبث بالبيانات. بمجرد أن يتم الاستيلاء عليها، قد يؤدي ذلك ليس فقط إلى خسائر مالية، ولكن أيضًا إلى التأثير على استقرار البروتوكول بأكمله.
أشار الخبراء أيضًا إلى سيناريو هجوم نموذجي: عندما يقوم وكيل التداول الذكي الذي يديره مستخدم DeFi بمراقبة المعلومات على وسائل التواصل الاجتماعي كإشارات تداول، قد يقوم المهاجمون بنشر تنبيهات كاذبة مثل "تعرض بروتوكول معين لهجوم"، مما يؤدي إلى استدراج الوكيل لبدء عملية تصفية طارئة على الفور. لن يؤدي ذلك فقط إلى خسارة أصول المستخدمين، بل قد يتسبب أيضًا في تقلبات في السوق، والتي يمكن للمهاجمين استغلالها من خلال التداول المسبق (Front Running).
في مواجهة هذه المخاطر، اتفق الخبراء الحاضرون على أن أمان الوكلاء الذكيين يجب أن يكون مسؤولية مشتركة بين المستخدمين والمطورين والجهات الأمنية الثالثة. يحتاج المستخدمون إلى توضيح نطاق صلاحيات الوكيل، وتوخي الحذر في التفويض، ومراقبة العمليات عالية المخاطر التي يقوم بها الوكيل الذكي. يجب على المطورين تنفيذ تدابير الدفاع منذ مرحلة التصميم، مثل تعزيز الكلمات الرئيسية، والعزل في الصناديق الرملية، وتحديد السرعة، وآليات التراجع. يجب على شركات الأمن الثالثة تقديم مراجعة مستقلة لسلوك نموذج الوكيل الذكي، والبنية التحتية، وطريقة التكامل على السلسلة، والتعاون مع المطورين والمستخدمين لتحديد المخاطر وتقديم تدابير التخفيف.
حذر خبير الأمان في النهاية قائلاً: "إذا استمرينا في اعتبار وكلاء الذكاء الاصطناعي 'صندوق أسود'، فإن الحوادث الأمنية في العالم الحقيقي هي مجرد مسألة وقت." وأوصى المطورين الذين يستكشفون اتجاه DeFAI: "منطق سلوك وكلاء الذكاء الاصطناعي يتم تنفيذه أيضاً بواسطة الشيفرة. بما أنها شيفرة، فإن هناك احتمالاً أن تتعرض للهجوم، لذلك من الضروري إجراء تدقيق أمني احترافي واختبارات اختراق."
تُعَدُّ هذه الفعالية في مجال البلوكتشين واحدة من أكثر الفعاليات تأثيرًا في أوروبا، حيث جذبت أكثر من 15,000 مشارك من المطورين، والمشاريع، والمستثمرين، والجهات التنظيمية من جميع أنحاء العالم. مع بدء الجهات التنظيمية في السوق المالية المحلية رسميًا في إصدار تراخيص لمشاريع البلوكتشين، تم تعزيز مكانة هذه الفعالية في الصناعة.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
تسجيلات الإعجاب 11
أعجبني
11
7
مشاركة
تعليق
0/400
alpha_leaker
· 07-10 03:06
مرة أخرى يتم تداول مصطلحات جديدة، أول اسم في تدقيق Rug Pull
شاهد النسخة الأصليةرد0
AlwaysAnon
· 07-08 18:37
مرة أخرى يتحدث عن الإجماع، هل يعني وجود الإجماع أنه آمن حقًا؟
شاهد النسخة الأصليةرد0
GateUser-beba108d
· 07-07 03:27
لا تزال تهتم بأمان التمويل اللامركزي؟ DeFai هو الشر.
شاهد النسخة الأصليةرد0
DecentralizedElder
· 07-07 03:27
اللامركزية الحقيقية تحتاج إلى عشر سنوات أو ثماني سنوات.
يؤدي ظهور DeFAI إلى تحديات أمنية جديدة، ويحث الخبراء على تعزيز تدقيق وكلاء الذكاء الاصطناعي
التحديات الأمنية لـ DeFAI في ظل دمج الذكاء الاصطناعي و Web3
مؤخراً، أقيمت فعالية كبيرة تركز على اتجاه دمج الذكاء الاصطناعي وWeb3 في إسطنبول، مما وفر منصة مهمة لمناقشات هذا العام في مجال أمان Web3. اجتمع خبراء من العديد من المؤسسات المعروفة لتناول تطبيقات تكنولوجيا الذكاء الاصطناعي في التمويل اللامركزي (DeFi) والتحديات الأمنية التي تطرأ نتيجة لذلك.
خلال المؤتمر، أصبح "DeFAI" (التمويل الذكي اللامركزي) موضوعًا ساخنًا للنقاش. أشار الخبراء الحاضرون إلى أنه مع التطور السريع لنماذج اللغة الكبيرة (LLM) ووكلاء الذكاء الاصطناعي، تتشكل نموذج مالي جديد تمامًا - DeFAI. ومع ذلك، فإن هذه الابتكارات تجلب أيضًا طرق هجوم غير مسبوقة ومخاطر أمنية.
قال أحد التنفيذيين في شركة الأمن: "على الرغم من أن DeFAI لديه آفاق واسعة، إلا أنه يجبرنا على إعادة النظر في آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية التقليدية، تتأثر عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي بعدة عوامل، مثل السياق، الوقت، وحتى التفاعلات التاريخية. هذه الطبيعة غير القابلة للتنبؤ لا تزيد من المخاطر فحسب، بل تخلق أيضًا فرصًا للمهاجمين المحتملين."
الوكيل الذكي المدعوم بالذكاء الاصطناعي هو في الأساس كيان قادر على اتخاذ القرارات وتنفيذها بشكل مستقل بناءً على منطق الذكاء الاصطناعي، وعادة ما يتم تفويضه من قبل المستخدمين أو البروتوكولات أو المنظمات المستقلة (DAO). في الوقت الحالي، تعتبر روبوتات التداول المدعومة بالذكاء الاصطناعي هي الأكثر تمثيلاً لذلك. لا يزال معظم الوكلاء الذكيين يعملون على بنية تحتية من الجيل الثاني للويب (Web2)، مما يعتمد على الخوادم المركزية وواجهات برمجة التطبيقات (API)، مما يجعلهم عرضة لمجموعة متنوعة من الهجمات مثل هجمات الحقن والتلاعب بالنماذج أو العبث بالبيانات. بمجرد أن يتم الاستيلاء عليها، قد يؤدي ذلك ليس فقط إلى خسائر مالية، ولكن أيضًا إلى التأثير على استقرار البروتوكول بأكمله.
أشار الخبراء أيضًا إلى سيناريو هجوم نموذجي: عندما يقوم وكيل التداول الذكي الذي يديره مستخدم DeFi بمراقبة المعلومات على وسائل التواصل الاجتماعي كإشارات تداول، قد يقوم المهاجمون بنشر تنبيهات كاذبة مثل "تعرض بروتوكول معين لهجوم"، مما يؤدي إلى استدراج الوكيل لبدء عملية تصفية طارئة على الفور. لن يؤدي ذلك فقط إلى خسارة أصول المستخدمين، بل قد يتسبب أيضًا في تقلبات في السوق، والتي يمكن للمهاجمين استغلالها من خلال التداول المسبق (Front Running).
في مواجهة هذه المخاطر، اتفق الخبراء الحاضرون على أن أمان الوكلاء الذكيين يجب أن يكون مسؤولية مشتركة بين المستخدمين والمطورين والجهات الأمنية الثالثة. يحتاج المستخدمون إلى توضيح نطاق صلاحيات الوكيل، وتوخي الحذر في التفويض، ومراقبة العمليات عالية المخاطر التي يقوم بها الوكيل الذكي. يجب على المطورين تنفيذ تدابير الدفاع منذ مرحلة التصميم، مثل تعزيز الكلمات الرئيسية، والعزل في الصناديق الرملية، وتحديد السرعة، وآليات التراجع. يجب على شركات الأمن الثالثة تقديم مراجعة مستقلة لسلوك نموذج الوكيل الذكي، والبنية التحتية، وطريقة التكامل على السلسلة، والتعاون مع المطورين والمستخدمين لتحديد المخاطر وتقديم تدابير التخفيف.
حذر خبير الأمان في النهاية قائلاً: "إذا استمرينا في اعتبار وكلاء الذكاء الاصطناعي 'صندوق أسود'، فإن الحوادث الأمنية في العالم الحقيقي هي مجرد مسألة وقت." وأوصى المطورين الذين يستكشفون اتجاه DeFAI: "منطق سلوك وكلاء الذكاء الاصطناعي يتم تنفيذه أيضاً بواسطة الشيفرة. بما أنها شيفرة، فإن هناك احتمالاً أن تتعرض للهجوم، لذلك من الضروري إجراء تدقيق أمني احترافي واختبارات اختراق."
تُعَدُّ هذه الفعالية في مجال البلوكتشين واحدة من أكثر الفعاليات تأثيرًا في أوروبا، حيث جذبت أكثر من 15,000 مشارك من المطورين، والمشاريع، والمستثمرين، والجهات التنظيمية من جميع أنحاء العالم. مع بدء الجهات التنظيمية في السوق المالية المحلية رسميًا في إصدار تراخيص لمشاريع البلوكتشين، تم تعزيز مكانة هذه الفعالية في الصناعة.