في العام الماضي، كتبت مقالة حول التفاؤل التكنولوجي، حيث عبرت عن شغفي بالتكنولوجيا والفوائد الكبيرة التي قد تجلبها، بينما أعربت أيضًا عن موقف حذر تجاه بعض القضايا المحددة، خاصة المخاطر التي قد تنجم عن الذكاء الاصطناعي الفائق.
تتمحور النقطة الأساسية في المقال حول الدعوة إلى مفهوم تسريع دفاعي لا مركزي وديمقراطي ومتنوع. يجب تسريع تطوير التكنولوجيا، مع التركيز بشكل خاص على تلك التقنيات التي يمكن أن تعزز القدرة الدفاعية بدلاً من القدرة التدميرية، والسعي لتفكيك السلطة، وتجنب تركيز السلطة في أيدي القلة من النخبة.
مر عام واحد ، وقد نمت وتطورت هذه الأفكار بشكل ملحوظ. لقد شاركت هذه الأفكار على منصة "80,000 ساعة" ، وتلقيت الكثير من التعليقات ، معظمها إيجابية ، ولكن بالطبع كان هناك بعض الانتقادات.
تستمر هذه العمل في التقدم وتحقيق نتائج ملموسة: تم إحراز تقدم في مجال اللقاحات مفتوحة المصدر القابلة للتحقق؛ تتعمق مفاهيم الناس حول قيمة الهواء الداخلي الصحي؛ تستمر "ملاحظات المجتمع" في لعب دور إيجابي؛ شهدت أسواق التنبؤ عامًا من الانفراج كأداة معلومات؛ تم تطبيق إثباتات المعرفة الصفرية في الهوية الحكومية ووسائل التواصل الاجتماعي؛ تم استخدام أدوات التصوير مفتوحة المصدر في مجالات الطب وواجهة الدماغ-الآلة، وما إلى ذلك.
في خريف العام الماضي، نظمنا أول حدث مهم لتقنية d/acc: "يوم اكتشاف d/acc". تجمع الحدث متحدثين من مختلف مجالات d/acc ( مثل البيولوجيا، والفيزياء، والشبكات، والدفاع المعلوماتي، وتقنية الأعصاب ). أصبح الناس الذين كرسوا أنفسهم لهذه التكنولوجيا أكثر فهمًا لعمل بعضهم البعض، كما أن الغرباء أصبحوا أكثر إدراكًا لرؤية أوسع: القيم التي تدفع تطوير الإيثيريوم والعملات المشفرة يمكن أن تمتد إلى عالم أكبر.
معنى d/acc وامتدادها
فكرة d/acc الأساسية واضحة وبسيطة: تسريع دفاعي لامركزي وديمقراطي ومتفرد. بناء تقنيات يمكن أن تدفع توازن الهجوم والدفاع نحو الدفاع، وعدم الاعتماد في عملية التنفيذ على منح المزيد من السلطة للسلطات المركزية. هناك ارتباط وثيق داخلي بين هذين الجانبين: أي هيكل سياسي لامركزي أو ديمقراطي أو حر يميل إلى الازدهار عندما يكون الدفاع سهلاً للتنفيذ، بينما يواجه تحديات شديدة عندما يواجه الدفاع صعوبات كبيرة.
طريقة لفهم الأهمية الكبيرة لتحقيق اللامركزية والدفاعية والسرعة في نفس الوقت، هي مقارنتها بالمفاهيم الناتجة عن التخلي عن أي من هذه الجوانب الثلاثة.
التسريع اللامركزي، ولكن تجاهل جزء "الدفاع المتنوع"، هذا يشبه أن تكون تسريعياً فعالاً (e/acc)، ولكن في نفس الوقت تسعى إلى اللامركزية. قد تكون هذه الطريقة قادرة على تجنب خطر ممارسة مجموعة معينة للديكتاتورية على البشرية العالمية، لكنها لم تحل المشكلة الهيكلية الكامنة: في بيئة مواتية للهجوم، تظل هناك مخاطر مستمرة من الكوارث، أو قد يحدد شخص ما نفسه كحامٍ، ويحتل موقع السيطرة بشكل دائم.
تسريع الدفاع المتمايز، لكن تجاهل "اللامركزية والديمقراطية"، وقبول السيطرة المركزية لتحقيق الأهداف الأمنية، وهذا له جاذبية معينة لبعض الأشخاص. ومع ذلك، فإن السيطرة المركزية تعاني من مشكلة معينة. شكل من أشكال السيطرة المركزية المعتدلة التي يتم تجاهلها عادة ولكنها لا تزال ضارة، تظهر في مقاومة الإشراف العام في مجال التكنولوجيا الحيوية، وكذلك السماح لهذا السلوك المقاوم بأن يبقى دون تحدٍ من المعايير المغلقة المصدر.
الدفاع اللامركزي، لكن التسارع المتناقض، في جوهره يحاول إبطاء التقدم التكنولوجي أو دفع الركود الاقتصادي. تواجه هذه الاستراتيجية تحديين مزدوجين. أولاً، بشكل عام، يعتبر التقدم التكنولوجي والنمو الاقتصادي مفيدين للغاية للبشر، وأي تأخير في ذلك سيؤدي إلى تكاليف يصعب تقديرها. ثانياً، في عالم غير استبدادي، فإن الركود غير مستقر: أولئك الذين "يغشون" أكثر، والذين يمكنهم إيجاد طرق تبدو معقولة لمواصلة التقدم سيحظون بميزة.
من خلال d/acc، نلتزم بتحقيق الأهداف التالية:
التمسك بالمبادئ في ظل الاتجاه المتزايد نحو التكتلات القبلية في العالم اليوم، وليس مجرد بناء أشياء مختلفة بشكل أعمى.
إدراك أن التقدم التكنولوجي الأسي يعني أن العالم سيصبح غريبًا للغاية، وأن "أثر" الإنسانية في الكون سيتزايد بلا شك. يجب أن تستمر قدرتنا على حماية الحيوانات والنباتات والمجموعات الضعيفة من الأذى في التحسن، والطريق الوحيد هو المضي قدمًا بشجاعة.
بناء تقنيات قادرة على حماية أنفسنا بشكل فعلي، بدلاً من الافتراض القائم على "الأشخاص الجيدين ( أو الذكاء الاصطناعي الجيد ) يتحكمون في كل شيء". نحقق هذا الهدف من خلال إنشاء أدوات تكون أكثر فعالية بشكل طبيعي عند البناء والحماية مقارنةً عند التدمير.
إن التفكير في d/acc من منظور آخر هو العودة إلى إطار حركة حزب القراصنة الأوروبي في أواخر العقد الأول من القرن الحادي والعشرين: تمكين. هدفنا هو بناء عالم يمكن أن يحتفظ بالقدرة الإنسانية، لتحقيق الحرية السلبية، أي تجنب التدخل الإيجابي للآخرين في قدرتنا على تشكيل مصيرنا، بينما نحقق الحرية الإيجابية، أي التأكد من أن لدينا المعرفة والموارد لممارسة هذه القدرة.
البعد الثالث: التنمية المتناغمة للبقاء والازدهار
في مقال العام الماضي، ركزت d/acc بشكل خاص على التقنيات الدفاعية: الدفاع الفيزيائي، الدفاع البيولوجي، الدفاع السيبراني ودفاع المعلومات. ومع ذلك، فإن الدفاع اللامركزي البحت ليس كافيًا لبناء عالم عظيم: نحتاج أيضًا إلى رؤية إيجابية استشرافية، توضح ما هي الأهداف التي يمكن للبشر تحقيقها بعد الحصول على لامركزية وأمان جديدين.
يوجد نمط متسق في مختلف المجالات، وهو أن العلوم والأفكار والأدوات التي يمكن أن تساعدنا على "البقاء" في مجال معين مرتبطة ارتباطًا وثيقًا بالعلوم والأفكار والأدوات التي يمكن أن تدعمنا في "الازدهار". فيما يلي بعض الأمثلة المحددة:
العديد من الأبحاث الحديثة حول فيروس كورونا تركز على استمرار وجود الفيروس في الجسم، والذي يُعتبر آلية رئيسية لمشكلة كوفيد الطويل. مؤخرًا، ظهرت أيضًا دلائل تشير إلى أن استمرار وجود الفيروس قد يكون عاملًا مسببًا لمرض الزهايمر.
توفر أدوات التصوير منخفضة التكلفة والميكروية إمكانات قوية في علاج الجلطات الدقيقة، والفيروسات المستمرة، والسرطان، كما يمكن تطبيقها أيضًا في مجال واجهات الدماغ-الآلة.
إن فكرة تعزيز بناء أدوات اجتماعية مناسبة للبيئات ذات المقاومة العالية وأدوات اجتماعية للتعاون المعقول متشابهة للغاية.
تتمتع أسواق التنبؤ بقيمة كبيرة في بيئات التعاون العالي والتنافس العالي.
توفر إثباتات المعرفة الصفرية والتقنيات المماثلة حسابات للبيانات مع حماية الخصوصية، مما يزيد من كمية البيانات المتاحة للأبحاث العلمية وغيرها من الأعمال المفيدة، ويعزز أيضًا حماية الخصوصية.
الطاقة الشمسية والبطاريات ذات أهمية كبيرة لدفع موجة النمو الاقتصادي النظيف المقبلة، كما أنها تظهر أداءً ممتازًا في اللامركزية والمرونة المادية.
بالإضافة إلى ذلك، توجد علاقات مهمة من الاعتماد المتبادل بين مجالات الدراسة المختلفة:
تعتبر واجهات الدماغ والحاسوب تكنولوجيا حيوية للدفاع عن المعلومات والتعاون، لأنها تمكننا من تبادل أفكارنا ونوايانا بشكل أكثر دقة.
تعتمد العديد من التقنيات الحيوية على تبادل المعلومات، وفي العديد من الحالات، يكون الناس مستعدين لمشاركة المعلومات فقط عندما يكونون واثقين من أن المعلومات ستستخدم فقط لأغراض معينة. وهذا يعتمد على تقنيات الخصوصية.
يمكن استخدام تقنية التعاون لتنسيق التمويل لأي مجال تقني آخر.
في العام الماضي، كانت أكثر الحجج إقناعًا التي تلقيتها ضد مقالي تأتي من مجتمع أمان الذكاء الاصطناعي. كانت حجتهم كالتالي: "على الرغم من أن لدينا نصف قرن من الزمن لتطوير الذكاء الاصطناعي القوي، يمكننا التركيز على بناء جميع هذه الأشياء المفيدة. ولكن في الواقع، يبدو أننا قد نكون فقط ثلاث سنوات لتطوير الذكاء الاصطناعي العام، وثلاث سنوات أخرى للوصول إلى الذكاء الخارق. لذلك، إذا لم نرغب في أن ينهار العالم أو يقع في مأزق لا يمكن عكسه بطرق أخرى، لا يمكننا ببساطة تسريع تطوير التقنيات المفيدة، بل يجب علينا أيضًا إبطاء تطوير التقنيات الضارة، مما يعني أننا بحاجة إلى اتخاذ تدابير تنظيمية قوية قد تغضب أصحاب السلطة."
الأسباب وراء التوجه الحذر تجاه التنظيم الجديد:
في العام الماضي ، كان الاقتراح الرئيسي لتنظيم الذكاء الاصطناعي هو مشروع قانون SB-1047 في ولاية كاليفورنيا. يتطلب مشروع القانون SB-1047 من المطورين لأقوى النماذج اتخاذ سلسلة من تدابير الاختبار الأمني قبل إصدارها. بالإضافة إلى ذلك ، إذا فشل مطورو نماذج الذكاء الاصطناعي في ممارسة الحذر الكافي ، سيتم تحميلهم المسؤولية. يعتقد العديد من النقاد أن مشروع القانون "يشكل تهديدًا للمصدر المفتوح" ؛ أنا أختلف مع هذا الرأي ، لأن عتبة التكلفة تعني أنه يؤثر فقط على أقوى النماذج. ومع ذلك ، عند النظر إلى الماضي ، أعتقد أن هناك مشكلة أكثر خطورة في مشروع القانون: مثل معظم التدابير التنظيمية ، فإنه يتكيف بشكل مفرط مع الوضع الحالي.
المتسببون الأكثر احتمالاً في سيناريوهات دمار الذكاء الاصطناعي الخارق:
في الواقع، من المرجح أن يكون الفاعل الأكثر مسؤولية عن سيناريوهات تدمير الذكاء الاصطناعي الفائق هو الجيش. كما شهدنا في مجال الأمن البيولوجي على مدار الخمسين عاماً الماضية، فإن الجيش مستعد لاتخاذ بعض الإجراءات الرهيبة، كما أنه عرضة للخطأ بسهولة. اليوم، يتطور استخدام الذكاء الاصطناعي في المجال العسكري بسرعة. وأي تدابير تنظيمية للأمان تمررها الحكومة تعفي افتراضياً جيشها والشركات التي تتعاون بشكل وثيق مع الجيش.
استراتيجيات المواجهة:
ومع ذلك، فإن هذه الحجج ليست سبباً يجعلنا عاجزين. على العكس، يمكننا استخدامها كدليل، ومحاولة وضع قواعد تثير أقل قدر من هذه المخاوف.
الاستراتيجية 1: المسؤولية
إذا كان تصرف شخص ما يتسبب بطريقة ما في ضرر يمكن مقاضاته بموجب القانون، فقد يتم رفع دعوى ضده. هذا لا يحل مشكلة المخاطر التي تأتي من الجيش وغيرها من "الجهات الفاعلة فوق القانون"، لكنه نهج عام جدًا يمكن أن يتجنب الإفراط في التخصيص، ولهذا السبب يميل الاقتصاديون المؤيدون لمذهب الحرية إلى دعم هذا الموقف.
الأهداف الرئيسية للمسؤولية التي تم النظر فيها حتى الآن هي كما يلي:
المستخدم: الشخص الذي يستخدم الذكاء الاصطناعي.
المنشئ: الوسيط الذي يوفر خدمات الذكاء الاصطناعي للمستخدمين.
المطورون: الذين يبنون الذكاء الاصطناعي.
يبدو أن تحميل المسؤولية على المستخدمين هو الأكثر توافقًا مع آلية التحفيز. على الرغم من أن العلاقة بين طريقة تطوير النموذج وطريقة استخدامه النهائية غالبًا ما تكون غير واضحة، إلا أن المستخدمين هم من يحددون كيفية استخدام الذكاء الاصطناعي بشكل محدد. ستؤدي محاسبة المستخدمين إلى خلق ضغط قوي، مما يدفع الناس لاستخدام الذكاء الاصطناعي بالطريقة التي أعتقد أنها صحيحة: التركيز على بناء مجموعة ميكانيكية للتفكير البشري، بدلاً من خلق أشكال جديدة من الحياة الذكية القابلة للحفاظ على الذات.
الاستراتيجية 2: زر "التوقف الناعم" العالمي على الأجهزة الصناعية الكبيرة
إذا كنت متأكدًا من أننا بحاجة إلى تدابير "أقوى" من قواعد المسؤولية، فسأختار هذه الاستراتيجية. الهدف هو القدرة على تقليل القدرة الحاسوبية العالمية المتاحة بنحو 90%-99% خلال الفترات الحرجة، واستمرار ذلك لمدة 1-2 سنة، لمنح البشرية المزيد من الوقت للتحضير. يجب ألا يتم المبالغة في تقدير قيمة 1-2 سنة: "نمط الحرب" لمدة عام واحد يمكن أن يعادل بسهولة مائة عام من العمل المعتاد في حالة من الرضا.
طريقة أكثر تقدمًا هي استخدام وسائل تشفير ذكية: على سبيل المثال، يمكن أن تكون أجهزة الذكاء الاصطناعي الصناعية على نطاق ( ولكن غير مخصصة للاستهلاك ) مزودة بشريحة أجهزة موثوقة، حيث يُسمح لها بالاستمرار في العمل فقط عند الحصول على توقيع 3/3 من وكالات دولية رئيسية أسبوعيًا. ستكون هذه التوقيعات غير مرتبطة بالجهاز، لذا ستكون إما كاملة أو لا شيء: لا توجد طريقة فعلية لتفويض جهاز واحد للاستمرار في العمل دون تفويض جميع الأجهزة الأخرى.
دور تقنية d/acc في مخاطر الذكاء الاصطناعي:
توجد ثغرات في هاتين الاستراتيجيتين ( المسؤولية وزر إيقاف التشغيل للأجهزة )، ومن الواضح أنهما مجرد تدابير مؤقتة. لذلك، نحتاج إلى تدابير أكثر استقرارًا لكسب الوقت. العديد من تقنيات d/acc ذات صلة هنا. يمكننا النظر إلى دور تقنيات d/acc على النحو التالي: إذا استحوذت الذكاء الاصطناعي على العالم، كيف ستفعل ذلك؟
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
d/acc الذكرى السنوية: تقدم وتحديات تسريع الدفاع اللامركزي
d/acc: مراجعة ونظرة مستقبلية بعد عام
في العام الماضي، كتبت مقالة حول التفاؤل التكنولوجي، حيث عبرت عن شغفي بالتكنولوجيا والفوائد الكبيرة التي قد تجلبها، بينما أعربت أيضًا عن موقف حذر تجاه بعض القضايا المحددة، خاصة المخاطر التي قد تنجم عن الذكاء الاصطناعي الفائق.
تتمحور النقطة الأساسية في المقال حول الدعوة إلى مفهوم تسريع دفاعي لا مركزي وديمقراطي ومتنوع. يجب تسريع تطوير التكنولوجيا، مع التركيز بشكل خاص على تلك التقنيات التي يمكن أن تعزز القدرة الدفاعية بدلاً من القدرة التدميرية، والسعي لتفكيك السلطة، وتجنب تركيز السلطة في أيدي القلة من النخبة.
مر عام واحد ، وقد نمت وتطورت هذه الأفكار بشكل ملحوظ. لقد شاركت هذه الأفكار على منصة "80,000 ساعة" ، وتلقيت الكثير من التعليقات ، معظمها إيجابية ، ولكن بالطبع كان هناك بعض الانتقادات.
تستمر هذه العمل في التقدم وتحقيق نتائج ملموسة: تم إحراز تقدم في مجال اللقاحات مفتوحة المصدر القابلة للتحقق؛ تتعمق مفاهيم الناس حول قيمة الهواء الداخلي الصحي؛ تستمر "ملاحظات المجتمع" في لعب دور إيجابي؛ شهدت أسواق التنبؤ عامًا من الانفراج كأداة معلومات؛ تم تطبيق إثباتات المعرفة الصفرية في الهوية الحكومية ووسائل التواصل الاجتماعي؛ تم استخدام أدوات التصوير مفتوحة المصدر في مجالات الطب وواجهة الدماغ-الآلة، وما إلى ذلك.
في خريف العام الماضي، نظمنا أول حدث مهم لتقنية d/acc: "يوم اكتشاف d/acc". تجمع الحدث متحدثين من مختلف مجالات d/acc ( مثل البيولوجيا، والفيزياء، والشبكات، والدفاع المعلوماتي، وتقنية الأعصاب ). أصبح الناس الذين كرسوا أنفسهم لهذه التكنولوجيا أكثر فهمًا لعمل بعضهم البعض، كما أن الغرباء أصبحوا أكثر إدراكًا لرؤية أوسع: القيم التي تدفع تطوير الإيثيريوم والعملات المشفرة يمكن أن تمتد إلى عالم أكبر.
معنى d/acc وامتدادها
فكرة d/acc الأساسية واضحة وبسيطة: تسريع دفاعي لامركزي وديمقراطي ومتفرد. بناء تقنيات يمكن أن تدفع توازن الهجوم والدفاع نحو الدفاع، وعدم الاعتماد في عملية التنفيذ على منح المزيد من السلطة للسلطات المركزية. هناك ارتباط وثيق داخلي بين هذين الجانبين: أي هيكل سياسي لامركزي أو ديمقراطي أو حر يميل إلى الازدهار عندما يكون الدفاع سهلاً للتنفيذ، بينما يواجه تحديات شديدة عندما يواجه الدفاع صعوبات كبيرة.
طريقة لفهم الأهمية الكبيرة لتحقيق اللامركزية والدفاعية والسرعة في نفس الوقت، هي مقارنتها بالمفاهيم الناتجة عن التخلي عن أي من هذه الجوانب الثلاثة.
التسريع اللامركزي، ولكن تجاهل جزء "الدفاع المتنوع"، هذا يشبه أن تكون تسريعياً فعالاً (e/acc)، ولكن في نفس الوقت تسعى إلى اللامركزية. قد تكون هذه الطريقة قادرة على تجنب خطر ممارسة مجموعة معينة للديكتاتورية على البشرية العالمية، لكنها لم تحل المشكلة الهيكلية الكامنة: في بيئة مواتية للهجوم، تظل هناك مخاطر مستمرة من الكوارث، أو قد يحدد شخص ما نفسه كحامٍ، ويحتل موقع السيطرة بشكل دائم.
تسريع الدفاع المتمايز، لكن تجاهل "اللامركزية والديمقراطية"، وقبول السيطرة المركزية لتحقيق الأهداف الأمنية، وهذا له جاذبية معينة لبعض الأشخاص. ومع ذلك، فإن السيطرة المركزية تعاني من مشكلة معينة. شكل من أشكال السيطرة المركزية المعتدلة التي يتم تجاهلها عادة ولكنها لا تزال ضارة، تظهر في مقاومة الإشراف العام في مجال التكنولوجيا الحيوية، وكذلك السماح لهذا السلوك المقاوم بأن يبقى دون تحدٍ من المعايير المغلقة المصدر.
الدفاع اللامركزي، لكن التسارع المتناقض، في جوهره يحاول إبطاء التقدم التكنولوجي أو دفع الركود الاقتصادي. تواجه هذه الاستراتيجية تحديين مزدوجين. أولاً، بشكل عام، يعتبر التقدم التكنولوجي والنمو الاقتصادي مفيدين للغاية للبشر، وأي تأخير في ذلك سيؤدي إلى تكاليف يصعب تقديرها. ثانياً، في عالم غير استبدادي، فإن الركود غير مستقر: أولئك الذين "يغشون" أكثر، والذين يمكنهم إيجاد طرق تبدو معقولة لمواصلة التقدم سيحظون بميزة.
من خلال d/acc، نلتزم بتحقيق الأهداف التالية:
إن التفكير في d/acc من منظور آخر هو العودة إلى إطار حركة حزب القراصنة الأوروبي في أواخر العقد الأول من القرن الحادي والعشرين: تمكين. هدفنا هو بناء عالم يمكن أن يحتفظ بالقدرة الإنسانية، لتحقيق الحرية السلبية، أي تجنب التدخل الإيجابي للآخرين في قدرتنا على تشكيل مصيرنا، بينما نحقق الحرية الإيجابية، أي التأكد من أن لدينا المعرفة والموارد لممارسة هذه القدرة.
البعد الثالث: التنمية المتناغمة للبقاء والازدهار
في مقال العام الماضي، ركزت d/acc بشكل خاص على التقنيات الدفاعية: الدفاع الفيزيائي، الدفاع البيولوجي، الدفاع السيبراني ودفاع المعلومات. ومع ذلك، فإن الدفاع اللامركزي البحت ليس كافيًا لبناء عالم عظيم: نحتاج أيضًا إلى رؤية إيجابية استشرافية، توضح ما هي الأهداف التي يمكن للبشر تحقيقها بعد الحصول على لامركزية وأمان جديدين.
يوجد نمط متسق في مختلف المجالات، وهو أن العلوم والأفكار والأدوات التي يمكن أن تساعدنا على "البقاء" في مجال معين مرتبطة ارتباطًا وثيقًا بالعلوم والأفكار والأدوات التي يمكن أن تدعمنا في "الازدهار". فيما يلي بعض الأمثلة المحددة:
بالإضافة إلى ذلك، توجد علاقات مهمة من الاعتماد المتبادل بين مجالات الدراسة المختلفة:
التحديات: أمان الذكاء الاصطناعي، الجدول الزمني العاجل، وصعوبات التنظيم
في العام الماضي، كانت أكثر الحجج إقناعًا التي تلقيتها ضد مقالي تأتي من مجتمع أمان الذكاء الاصطناعي. كانت حجتهم كالتالي: "على الرغم من أن لدينا نصف قرن من الزمن لتطوير الذكاء الاصطناعي القوي، يمكننا التركيز على بناء جميع هذه الأشياء المفيدة. ولكن في الواقع، يبدو أننا قد نكون فقط ثلاث سنوات لتطوير الذكاء الاصطناعي العام، وثلاث سنوات أخرى للوصول إلى الذكاء الخارق. لذلك، إذا لم نرغب في أن ينهار العالم أو يقع في مأزق لا يمكن عكسه بطرق أخرى، لا يمكننا ببساطة تسريع تطوير التقنيات المفيدة، بل يجب علينا أيضًا إبطاء تطوير التقنيات الضارة، مما يعني أننا بحاجة إلى اتخاذ تدابير تنظيمية قوية قد تغضب أصحاب السلطة."
الأسباب وراء التوجه الحذر تجاه التنظيم الجديد:
في العام الماضي ، كان الاقتراح الرئيسي لتنظيم الذكاء الاصطناعي هو مشروع قانون SB-1047 في ولاية كاليفورنيا. يتطلب مشروع القانون SB-1047 من المطورين لأقوى النماذج اتخاذ سلسلة من تدابير الاختبار الأمني قبل إصدارها. بالإضافة إلى ذلك ، إذا فشل مطورو نماذج الذكاء الاصطناعي في ممارسة الحذر الكافي ، سيتم تحميلهم المسؤولية. يعتقد العديد من النقاد أن مشروع القانون "يشكل تهديدًا للمصدر المفتوح" ؛ أنا أختلف مع هذا الرأي ، لأن عتبة التكلفة تعني أنه يؤثر فقط على أقوى النماذج. ومع ذلك ، عند النظر إلى الماضي ، أعتقد أن هناك مشكلة أكثر خطورة في مشروع القانون: مثل معظم التدابير التنظيمية ، فإنه يتكيف بشكل مفرط مع الوضع الحالي.
المتسببون الأكثر احتمالاً في سيناريوهات دمار الذكاء الاصطناعي الخارق:
في الواقع، من المرجح أن يكون الفاعل الأكثر مسؤولية عن سيناريوهات تدمير الذكاء الاصطناعي الفائق هو الجيش. كما شهدنا في مجال الأمن البيولوجي على مدار الخمسين عاماً الماضية، فإن الجيش مستعد لاتخاذ بعض الإجراءات الرهيبة، كما أنه عرضة للخطأ بسهولة. اليوم، يتطور استخدام الذكاء الاصطناعي في المجال العسكري بسرعة. وأي تدابير تنظيمية للأمان تمررها الحكومة تعفي افتراضياً جيشها والشركات التي تتعاون بشكل وثيق مع الجيش.
استراتيجيات المواجهة:
ومع ذلك، فإن هذه الحجج ليست سبباً يجعلنا عاجزين. على العكس، يمكننا استخدامها كدليل، ومحاولة وضع قواعد تثير أقل قدر من هذه المخاوف.
الاستراتيجية 1: المسؤولية
إذا كان تصرف شخص ما يتسبب بطريقة ما في ضرر يمكن مقاضاته بموجب القانون، فقد يتم رفع دعوى ضده. هذا لا يحل مشكلة المخاطر التي تأتي من الجيش وغيرها من "الجهات الفاعلة فوق القانون"، لكنه نهج عام جدًا يمكن أن يتجنب الإفراط في التخصيص، ولهذا السبب يميل الاقتصاديون المؤيدون لمذهب الحرية إلى دعم هذا الموقف.
الأهداف الرئيسية للمسؤولية التي تم النظر فيها حتى الآن هي كما يلي:
يبدو أن تحميل المسؤولية على المستخدمين هو الأكثر توافقًا مع آلية التحفيز. على الرغم من أن العلاقة بين طريقة تطوير النموذج وطريقة استخدامه النهائية غالبًا ما تكون غير واضحة، إلا أن المستخدمين هم من يحددون كيفية استخدام الذكاء الاصطناعي بشكل محدد. ستؤدي محاسبة المستخدمين إلى خلق ضغط قوي، مما يدفع الناس لاستخدام الذكاء الاصطناعي بالطريقة التي أعتقد أنها صحيحة: التركيز على بناء مجموعة ميكانيكية للتفكير البشري، بدلاً من خلق أشكال جديدة من الحياة الذكية القابلة للحفاظ على الذات.
الاستراتيجية 2: زر "التوقف الناعم" العالمي على الأجهزة الصناعية الكبيرة
إذا كنت متأكدًا من أننا بحاجة إلى تدابير "أقوى" من قواعد المسؤولية، فسأختار هذه الاستراتيجية. الهدف هو القدرة على تقليل القدرة الحاسوبية العالمية المتاحة بنحو 90%-99% خلال الفترات الحرجة، واستمرار ذلك لمدة 1-2 سنة، لمنح البشرية المزيد من الوقت للتحضير. يجب ألا يتم المبالغة في تقدير قيمة 1-2 سنة: "نمط الحرب" لمدة عام واحد يمكن أن يعادل بسهولة مائة عام من العمل المعتاد في حالة من الرضا.
طريقة أكثر تقدمًا هي استخدام وسائل تشفير ذكية: على سبيل المثال، يمكن أن تكون أجهزة الذكاء الاصطناعي الصناعية على نطاق ( ولكن غير مخصصة للاستهلاك ) مزودة بشريحة أجهزة موثوقة، حيث يُسمح لها بالاستمرار في العمل فقط عند الحصول على توقيع 3/3 من وكالات دولية رئيسية أسبوعيًا. ستكون هذه التوقيعات غير مرتبطة بالجهاز، لذا ستكون إما كاملة أو لا شيء: لا توجد طريقة فعلية لتفويض جهاز واحد للاستمرار في العمل دون تفويض جميع الأجهزة الأخرى.
دور تقنية d/acc في مخاطر الذكاء الاصطناعي:
توجد ثغرات في هاتين الاستراتيجيتين ( المسؤولية وزر إيقاف التشغيل للأجهزة )، ومن الواضح أنهما مجرد تدابير مؤقتة. لذلك، نحتاج إلى تدابير أكثر استقرارًا لكسب الوقت. العديد من تقنيات d/acc ذات صلة هنا. يمكننا النظر إلى دور تقنيات d/acc على النحو التالي: إذا استحوذت الذكاء الاصطناعي على العالم، كيف ستفعل ذلك؟