مصدر المقال
شهد كل من التشفير والذكاء الاصطناعي تقدمًا ملحوظًا في السنوات القليلة الماضية.
احتفلت Crypto بالنجاحات مثلDeFi ومؤخراديسي .
احتفلت منظمة العفو الدولية بنجاحات مثلألفا فولد 2 ومؤخراالدردشة
مرة أخرى في عام 2018 ، بيتر ثيليشير الى إلى التوتر بين قوى اللامركزية للتشفير والقوى المركزية للذكاء الاصطناعي ، صاغ مصطلح "التشفير تحرري ، والذكاء الاصطناعي شيوعي". هنا أريد أن أزعم أننا قد نتعلم شيئًا ما من خلال الجمع بين الاثنين.
لماذا؟ لأن المهارات والأساليب التي يتم شحذها بواسطة مجتمع الأمان والتشفير لديها القدرة على فتح تطبيقات مفيدة للذكاء الاصطناعي وتخفيف مخاطر الذكاء الاصطناعي.
هل سنموت جميعًا؟
ظهر Eliezer Yudkowsky ، وهو شخصية بارزة في مجال أمان الذكاء الاصطناعي ، مؤخرًا بشكل مفاجئ علىبودكاست غير مصرفي ، بودكاست Web3 بوضوح.
كانت مفاجأة لسببين:
أولاً ، يعتقد إليعازر أننا نسير على طريق سريع لتطوير الذكاء الاصطناعي العام (AGI) الذي يمكنه أداء جميع المهام التي يقوم بها البشر تقريبًا ، وأن مثل هذا الذكاء الاصطناعي من المرجح جدًا أن يقتلنا جميعًا.
ثانيًا ، عندما سئل عما إذا كان هناك أي شيء يمكن القيام به لزيادة فرصة النجاة ، شجع الأشخاص المهتمين بالأمان والتشفير الذين يتمتعون بعقلية أمنية قوية على المشاركة في محاذاة الذكاء الاصطناعي.
دعونا نفك ذلك. أولاً ، سنناقش سبب القلق بشأن الذكاء الاصطناعي العام ، قبل التركيز على الوعود التي يوفرها مجتمع التشفير (الذي يعني التشفير في المقام الأول) ومجتمع الأمان للتخفيف من بعض مخاطر الذكاء الاصطناعي العام.
أمان الذكاء الاصطناعي: أصعب مما تعتقد؟
كما يمكن لأي شخص يلمح الأخبار مؤخرًا أن يشهد ، لا يمر أسبوع دون أن يتسارع تقدم الذكاء الاصطناعي بشكل كبير. في حالة فاتتك ، إليك ثلاثة تطورات مهمة فقط:
أولاً ، كان هناك دفعة نحو مزيد من المركزية للذكاء الاصطناعي ، على سبيل المثال من خلال استثمار Microsoft في OpenAI ، والاستثمار في شركة Anthropic المنافسة لشركة OpenAI ، ودمج DeepMind و Google Brain في مؤسسة واحدة.
ثانيًا ، كان هناك ضغط من أجل ذكاء اصطناعي أكثر تعميمًا. الورقة الأخيرة "GPT4: شرارات الذكاء العام الاصطناعي "أظهر كيف يوضح GPT-4 بالفعل الأمثلة الأولى لنظرية العقل ، وهو مقياس يستخدم عادة لتقييم الذكاء البشري.
ثالثًا ، كان هناك ضغط لمزيد من الوكالة في أنظمة الذكاء الاصطناعي ، حيث أصبح AutoGPT أكثر فاعلية من خلال إعادة حث نفسه على تحقيق مهام أكثر تعقيدًا.
مرة أخرى في ديسمبر ،ميتاكولوس ، منصة تنبؤ ، توقعت وصول الذكاء الاصطناعي العام في عام 2039 تقريبًا. الآن ، في مايو ، التاريخ هو 2031 - بعبارة أخرى ، انخفض الجدول الزمني لمدة ثماني سنوات في غضون خمسة أشهر من تقدم الذكاء الاصطناعي.
إذا أخذنا هذه التطورات كإشارات على أننا نسير على طريق الذكاء العام الاصطناعي ، فإن السؤال التالي هو لماذا تعتبر سلامة الذكاء الاصطناعي العام أمرًا بالغ الصعوبة؟
يمكن القول أنه يمكننا تقسيم مشكلة أمان الذكاء الاصطناعي العام إلى ثلاث مشاكل فرعية:
المحاذاة: كيف يمكننا مواءمة الذكاء الاصطناعي مع القيم الإنسانية؟
محاذاة الذكاء الاصطناعي هي السؤال البسيط عن كيفية جعل الذكاء الاصطناعي يتماشى مع قيمنا. لكن من السهل أن ننسى أننا لا نتفق حتى على ماهية قيمنا. منذ فجر الحضارة ، جادل الفلاسفة والبشر على حد سواء حول الأخلاق ، مع نقاط مقنعة من جميع الجوانب. لهذا السبب وصلت حضارتنا الحالية ، في الغالب ، إلى تعددية القيم (فكرة البشر ذوي القيم المتضاربة يتعايشون بسلام). يعمل هذا من أجل مجموعة متنوعة من القيم الإنسانية ولكن من الصعب تنفيذه في عامل ذكي اصطناعي واحد.
لنتخيل للحظة حلوة أننا عرفنا ، تقريبًا ، القيم الأخلاقية التي يجب أن نجهز بها الذكاء الاصطناعي العام. بعد ذلك ، نحتاج إلى إيصال هذه القيم الإنسانية إلى كيان قائم على السيليكون لا يشارك التطور البشري أو بنية العقل أو السياق. عندما ينسق البشر مع البشر الآخرين ، يمكننا الاعتماد على الكثير من المعرفة الخلفية الضمنية المشتركة لأننا نشارك بيولوجيا جنسنا البشري ، والتاريخ التطوري ، وفي كثير من الأحيان حتى بعض السياق الثقافي. مع الذكاء الاصطناعي ، لا يمكننا الاعتماد على مثل هذا السياق المشترك.
هناك مشكلة أخرى وهي أنه من أجل السعي لتحقيق أي هدف ، من المفيد بشكل عام أن تكون على قيد الحياة وأن تحصل على المزيد من الموارد. هذا يعني أن مجموعة الذكاء الاصطناعي التي تسعى إلى تحقيق هدف محدد يمكن أن تقاوم الإغلاق وتبحث عن المزيد والمزيد من الموارد. نظرًا للإمكانيات التي لا حصر لها والتي يمكن أن يحقق فيها الذكاء الاصطناعي أهدافًا تشمل الإصابة البشرية والإهمال والخداع وغير ذلك ، وبالنظر إلى مدى صعوبة التنبؤ بكل هذه القيود وتحديدها مسبقًا بطريقة موثوقة ، فإن مهمة التوافق التقني مهمة شاقة .
حاسوب حماية
حتى إذا اتفق البشر على مجموعة من القيم ، وتوصلوا إلى كيفية مواءمة الذكاء الاصطناعي العام معهم تقنيًا ، فما زلنا لا نتوقع أن يتصرف بشكل موثوق بدون دليل على أن البرامج والأجهزة الأساسية يمكن الاعتماد عليها في حد ذاتها. نظرًا للميزة الكبيرة التي يوفرها الذكاء الاصطناعي العام لمنشئيها ، فقد يقوم المتسللون الخبثاء بتخريب أو إعادة برمجة الذكاء الاصطناعي العام.
علاوة على ذلك ، يمكن أن يتدخل خطأ غير مقصود في تنفيذ هدف AGI أو قد يستغل AGI نفسه نقاط الضعف في التعليمات البرمجية الخاصة به ، على سبيل المثال عن طريق إعادة برمجة نفسه بطرق خطيرة.
لسوء الحظ ، لقد أنشأنا نظامًا بيئيًا كامل قيمته عدة تريليونات من الدولارات اليوم على أسس إلكترونية غير آمنة. تعتمد معظم بنيتنا التحتية المادية على أنظمة قابلة للاختراق ، مثل الشبكة الكهربائية وتكنولوجيا الأسلحة النووية لدينا. في المستقبل ، حتى السيارات ذاتية القيادة والطائرات ذاتية القيادة غير الآمنة يمكن اختراقها لتتحول إلى روبوتات قاتلة. الهجمات الإلكترونية المتصاعدة مثل Sputnick أو Solarwinds شديدة ولكنها قد تكون حميدة عند مقارنتها بالهجمات المستقبلية المحتملة التي تدعم AG. يشير افتقارنا إلى رد ذي مغزى على هذه الهجمات إلى أننا لسنا على مستوى مهمة الأمن الآمن الذي يعتمد على الذكاء الاصطناعي العام والذي قد يتطلب إعادة بناء الكثير من بنيتنا التحتية غير الآمنة.
& quot؛ من خلال الاستفادة من التقنيات والمهارات في مجتمعات الأمان والتشفير ، قد نتمكن من متابعة سيناريو ذكاء خارق متعدد الأقطاب. & quot؛
تنسيق
قد يستغرق إحراز تقدم في مواءمة وأمن الذكاء الاصطناعي العام وقتًا ، مما يجعل من المهم للجهات الفاعلة التي تبني الذكاء الاصطناعي العام أن تنسق على طول الطريق. لسوء الحظ ، فإن تحفيز الجهات الفاعلة الرئيسية في مجال الذكاء الاصطناعي (قد يكون هذا التعاون أو الدول القومية) للتعاون وتجنب تحفيز ديناميكيات سباق التسلح للوصول إلى الذكاء الاصطناعي العام أولاً ليس بالأمر المستقيم. لا تتطلب الكارثة سوى جهة فاعلة واحدة للانسحاب من الاتفاقية ، مما يعني أنه حتى لو تعاون الجميع ، إذا تقدم أحدهم إلى الأمام ، فإنهم يؤمنون ميزة حاسمة. تستمر ميزة المحرك الأول هذه حتى يتم بناء الذكاء الاصطناعي العام (AGI) وبالنظر إلى القوة التي قد ينقلها النشر الأحادي لنظام الذكاء الاصطناعي العام إلى مالكه ، وهو إغراء صعب للمالك أن يتنازل عنه.
أمن متعدد الأقطاب AI
ربما تكون قد أومأت برأسك حتى الآن: نعم ، بالتأكيد ، أمان الذكاء الاصطناعي صعب حقًا. ولكن ما علاقة التشفير بها في العالم؟
نظرًا للوتيرة السريعة لتقدم الذكاء الاصطناعي ، والصعوبات في جعله آمنًا ، فإن القلق التقليدي هو أننا نتسابق نحو سيناريو فردي للذكاء الاصطناعي العام ، حيث يحل الذكاء الاصطناعي العام محل الحضارة الإنسانية كإطار عام ذي صلة بالذكاء ويسيطر على العالم ، يحتمل أن يقتل البشرية على طول الطريق.
من خلال الاستفادة من التقنيات والمهارات في مجتمعات الأمان والتشفير ، قد نتمكن من تغيير المسار بدلاً من ذلك لمتابعة سيناريو ذكاء خارق متعدد الأقطاب ، حيث تتعاون شبكات البشر والذكاء الاصطناعي بشكل آمن لتكوين معارفهم المحلية في الذكاء الجماعي الجماعي للحضارة.
هذا ادعاء كبير ومجرّد ، لذا دعونا نفكّر كيف يمكن لمجتمعات التشفير والأمان أن تساعد بالضبط في ترويض مخاطر الذكاء الاصطناعي وإطلاق العنان لجمال الذكاء الاصطناعي من خلال فتح تطبيقات جديدة.
كيف يمكن للأمان والتشفير ترويض مخاطر الذكاء الاصطناعي؟
الفريق الأحمر
بول كريستيانو ، باحث مرموق في مجال السلامة في الذكاء الاصطناعي ،يقترح أن يحتاج الذكاء الاصطناعي بشدة إلى المزيد من العمل الجماعي الأحمر ، وهو مصطلح يُستخدم عادةً في أمان الكمبيوتر للإشارة إلى الهجمات الإلكترونية المحاكية. يمكن استخدام الفرق الحمراء في سياق الذكاء الاصطناعي ، على سبيل المثال ، للبحث عن المدخلات التي تسبب سلوكيات كارثية في أنظمة التعلم الآلي.
تعد Red-teaming أيضًا أمرًا يتمتع بخبرة مجتمع التشفير. تتطور كل من Bitcoin و Ethereum في بيئة تتعرض لهجوم عدائي مستمر ، لأن المشاريع غير الآمنة تشكل مكافآت مكافئة للعملات المشفرة بملايين الدولارات.
يتم التخلص من الأنظمة غير المضادة للرصاص ، مما يترك فقط المزيد من الأنظمة المضادة للرصاص داخل النظام البيئي. تخضع مشاريع العملات المشفرة لمستوى من الاختبارات العدائية التي يمكن أن تكون مصدر إلهام جيد للأنظمة القادرة على تحمل الهجمات الإلكترونية التي قد تدمر البرامج التقليدية.
مكافحة التواطؤ
المشكلة الثانية في الذكاء الاصطناعي هي أن العديد من أنظمة الذكاء الاصطناعي الناشئة قد تتواطأ في النهاية للإطاحة بالبشرية. على سبيل المثال، "أمان الذكاء الاصطناعي عبر المناظرة ، "استراتيجية محاذاة شائعة ، تعتمد على اثنين من أنظمة الذكاء الاصطناعي التي تناقش موضوعات مع بعضها البعض ، مع وجود قاضٍ بشري في الحلقة يقرر الفائز. ومع ذلك ، هناك شيء واحد قد لا يكون القاضي البشري قادرًا على استبعاده هو أن كلا الذكاء الاصطناعي يتواطأ ضدها ، ولا يروج أي منهما للنتيجة الحقيقية.
مرة أخرى ، تتمتع العملة المشفرة بخبرة في تجنب مشاكل التواطؤ ، مثلهجوم سيبيل ، والذي يستخدم عقدة واحدة لتشغيل العديد من الهويات المزيفة النشطة لكسب غالبية التأثير في الشبكة سرًا. لتجنب ذلك ، يظهر قدر كبير من العمل على تصميم الآلية داخل التشفير ، وقد يكون لدى البعض دروس مفيدة لتواطؤ الذكاء الاصطناعي أيضًا.
الضوابط والتوازنات
هناك نهج أمان واعد آخر يستكشفه حاليًا منافس OpenAI Anthropic وهو "الذكاء الاصطناعي الدستوري ، "حيث يشرف أحد الذكاء الاصطناعي على ذكاء اصطناعي آخر باستخدام القواعد والمبادئ التي يقدمها الإنسان. هذا مستوحى من تصميم دستور الولايات المتحدة ، الذي يضع مصالح متضاربة ووسائل محدودة في نظام من الضوابط والتوازنات.
مرة أخرى ، تتمتع مجتمعات الأمان والتشفير بخبرة جيدة في عمليات التدقيق الشبيهة بالدستور وترتيبات التوازن. على سبيل المثال ، يتطلب مبدأ الأمن ، POLA - مبدأ السلطة الأقل - أن يكون للكيان حق الوصول فقط إلى أقل قدر من المعلومات والموارد اللازمة للقيام بعمله. مبدأ مفيد يجب مراعاته عند بناء أنظمة ذكاء اصطناعي أكثر تقدمًا أيضًا.
هذه مجرد ثلاثة أمثلة من أمثلة عديدة ، مما يعطي لمحة عن كيف يمكن لنوع عقلية الأمان البارزة في مجتمعات الأمان والعملات المشفرة أن تساعد في مواجهة تحديات محاذاة الذكاء الاصطناعي.
كيف يمكن للتشفير والأمان إطلاق العنان لجمال الذكاء الاصطناعي؟
بالإضافة إلى مشكلات أمان الذكاء الاصطناعي التي قد تجربها ، فلنلقِ نظرة على بعض الحالات التي لا يمكن أن تساعد فيها ابتكارات أمان التشفير في ترويض الذكاء الاصطناعي فحسب ، بل أيضًا إطلاق العنان لجماله ، على سبيل المثال من خلال تمكين تطبيقات مفيدة جديدة.
الذكاء الاصطناعي الذي يحافظ على الخصوصية
هناك عدد قليل من المجالات التي لا يمكن للذكاء الاصطناعي التقليدي أن يمسها حقًا ، لا سيما حل المشكلات التي تتطلب بيانات حساسة مثل المعلومات الصحية للأفراد أو البيانات المالية التي لها قيود خصوصية قوية.
لحسن الحظ،كما أشار بواسطة باحث التشفير جورجيوس كايسيس ، تلك هي المجالات التي تتألق فيها مناهج التشفير والمساعدات ، مثل التعلم الموحد ، والخصوصية التفاضلية ، والتشفير متماثل الشكل والمزيد. يمكن لهذه الأساليب الناشئة للحساب معالجة مجموعات البيانات الحساسة الكبيرة مع الحفاظ على الخصوصية ، وبالتالي تتمتع بميزة نسبية على الذكاء الاصطناعي المركزي.
الاستفادة من المعرفة المحلية
هناك مجال آخر يعاني منه الذكاء الاصطناعي التقليدي وهو الحصول على المعرفة المحلية التي غالبًا ما تكون مطلوبة لحل الحالات المتطورة في التعلم الآلي (ML) التي لا تستطيع البيانات الضخمة فهمها.
يمكن أن يساعد نظام التشفير البيئي في توفير البيانات المحلية من خلال إنشاء أسواق يمكن للمطورين فيها استخدام الحوافز لجذب بيانات محلية أفضل لخوارزمياتهم. على سبيل المثال ، مؤسس Coinbase فريد إهرساموتقترح الجمع بين ML الخاص الذي يسمح بتدريب البيانات الحساسة مع الحوافز المستندة إلى blockchain التي تجذب بيانات أفضل إلى البيانات المستندة إلى blockchain وأسواق ML. في حين أنه قد لا يكون من الممكن أو الآمن فتح مصدر التدريب الفعلي لنماذج ML ، إلا أن أسواق البيانات يمكن أن تدفع للمبدعين مقابل الحصة العادلة من مساهمات البيانات الخاصة بهم.
مشفر AI
بالنظر إلى المدى الطويل ، قد يكون من الممكن الاستفادة من مناهج التشفير لبناء أنظمة ذكاء اصطناعي أكثر أمانًا وقوة.
على سبيل المثال ، باحث التشفير أندرو تراسكوتقترح باستخدام تشفير متماثل الشكل لتشفير شبكة عصبية بالكامل. إذا كان ذلك ممكنًا ، فهذا يعني أنه سيتم حماية ذكاء الشبكة ضد السرقة ، مما يمكّن الجهات الفاعلة من التعاون في مشاكل محددة باستخدام نماذجهم وبياناتهم ، دون الكشف عن المدخلات.
والأهم من ذلك ، إذا كان الذكاء الاصطناعي مشفرًا بشكل متماثل ، فإن العالم الخارجي يُدرك أنه مشفر. يمكن للإنسان الذي يتحكم في المفتاح السري أن يطلق العنان للتنبؤات الفردية التي يقوم بها الذكاء الاصطناعي ، بدلاً من السماح للذكاء الاصطناعي بالخروج إلى البرية نفسها.
مرة أخرى ، هذه ليست سوى ثلاثة أمثلة للعديد من المحتمل ، حيث يمكن للعملات المشفرة فتح حالات استخدام جديدة للذكاء الاصطناعي.
& quot؛ تشير أمثلة الميمات التي تتحكم في الميمات والمؤسسات المسيطرة أيضًا إلى أن أنظمة الذكاء الاصطناعي يمكنها التحكم في أنظمة الذكاء الاصطناعي. & quot؛
ضع القطع معًا
يعاني الذكاء الاصطناعي المركزي من نقاط فشل فردية. لن يضغط فقط التعددية المعقدة للقيمة الإنسانية في وظيفة موضوعية واحدة. كما أنه عرضة للخطأ والفساد الداخلي والهجوم الخارجي. من ناحية أخرى ، فإن الأنظمة الآمنة متعددة الأقطاب ، كما تم إنشاؤها بواسطة مجتمع الأمان والتشفير ، لها الكثير من الأمل ؛ إنهم يدعمون التعددية القيّمة ، ويمكنهم أن يؤمّنوا العمل الجماعي الأحمر ، والضوابط والتوازنات ، وهم غير هشّين.
هناك أيضًا الكثير من عيوب أنظمة التشفير. على سبيل المثال ، يتطلب التشفير تقدمًا في تخزين البيانات اللامركزية ، والتشفير الوظيفي ، واختبار الخصومة ، والاختناقات الحسابية التي تجعل هذه الأساليب لا تزال بطيئة ومكلفة. علاوة على ذلك ، تعد الأنظمة اللامركزية أقل استقرارًا من الأنظمة المركزية ، وهي عرضة للجهات الفاعلة المارقة التي لديها دائمًا حافز للتواطؤ أو الإطاحة بالنظام للسيطرة عليه.
ومع ذلك ، نظرًا للسرعة السريعة للذكاء الاصطناعي ، والافتقار النسبي إلى الأشخاص المهتمين بالأمان والتشفير في الذكاء الاصطناعي ، فربما لم يكن من السابق لأوانه التفكير فيما إذا كان بإمكانك المساهمة بشكل مفيد في الذكاء الاصطناعي ، وإحضار بعض الفوائد التي تمت مناقشتها هنا إلى الطاولة.
وعد الذكاء الاصطناعي متعدد الأقطاب الآمن كانبشكل جيدبقلم إريك دريكسلر Eric Drexler ، رائد التكنولوجيا ، في عام 1986: "تشير أمثلة الميمات التي تتحكم في الميمات والمؤسسات المسيطرة أيضًا إلى أن أنظمة الذكاء الاصطناعي يمكنها التحكم في أنظمة الذكاء الاصطناعي."