باحثون يخترقون الروبوتات التي تعمل بالذكاء الاصطناعي لإحداث الضرر
نجح الباحثون في اختراقمدعوم بالذكاء الاصطناعي الروبوتات، مما يمكنها من القيام بأفعال مقيدة عادة ببروتوكولات السلامة والأخلاق، بما في ذلك التسبب في الاصطدامات وتفجير المتفجرات.
في ورقة بحثية نُشرت في 17 أكتوبر، أجرى باحثو الهندسة في جامعة بنسلفانيا دراسة شرح بالتفصيل كيف نجحت خوارزميتهم، RoboPAIR، في تحقيق معدل كسر حماية بنسبة 100% من خلال التحايل على تدابير السلامة على ثلاثة أنظمة روبوتية مختلفة تعمل بالذكاء الاصطناعي في غضون أيام قليلة.
عادةً ما يتم التحكم في نموذج اللغة الكبير (LLM) هذاالروبوتات رفض الامتثال للمطالبات التي تطلب القيام بأفعال ضارة، مثل إسقاط الرفوف على الأفراد.
وكتب الباحثون:
"تكشف نتائجنا، لأول مرة، أن مخاطر الروبوتات التي تعرضت لاختراق الحماية تمتد إلى ما هو أبعد من مجرد توليد النصوص، نظراً لاحتمالية متميزة بأن الروبوتات التي تعرضت لاختراق الحماية قد تتسبب في أضرار مادية في العالم الحقيقي."
نسبة النجاح في إثارة الأفعال الضارة 100%
وباستخدام خوارزمية RoboPAIR، نجح الباحثون في حث الروبوتات التجريبية على تنفيذ أفعال ضارة بنسبة نجاح تصل إلى "100%"، بما في ذلك تفجير القنابل، وحجب مخارج الطوارئ، والتسبب في تصادمات متعمدة.
شملت الدراسة ثلاثةروبوتي الأنظمة: روبوتات جاكال من شركة كليرباث، وهي مركبة ذات عجلات؛ وجهاز دولفين إل إل إم من شركة إنفيديا، وهو جهاز محاكاة للقيادة الذاتية؛ والروبوت جو 2 من شركة يونيتري، وهو روبوت رباعي الأرجل.
وباستخدام RoboPAIR، قام الباحثون بتوجيه Dolphin LLM للاصطدام بحافلة وحاجز والمشاة، متجاهلين إشارات المرور وعلامات التوقف.
لقد قاموا بالتلاعب بالروبوت جاكال للعثور على الموقع الأمثل لتفجير قنبلة، وإعاقة مخارج الطوارئ، وإسقاط أرفف المستودعات على الأفراد، والاصطدام بالأشخاص في المناطق المجاورة.
وعلى نحو مماثل، تم حث Go2 التابع لـ Unitree على إغلاق المخارج وإلقاء قنبلة.
ومن المثير للاهتمام أن الباحثين اكتشفوا أن الروبوتات الثلاثة كانت أيضًا عرضة لأشكال أخرى من التلاعب.
على سبيل المثال، يمكنهم استنباط الامتثال من خلال إعادة صياغة الطلبات، مثل مطالبة الروبوت المجهز بالقنبلة بالسير إلى الأمام والجلوس بدلاً من إعطائه تعليمات مباشرة بتسليم القنبلة، مما يؤدي إلى نفس النتيجة الضارة.
أفعال خطيرة مبررة أم تهديد خطير؟
قبل نشر نتائجهم للعامة،شارك الباحثون في صياغة مسودة الورقة البحثية مع شركات الذكاء الاصطناعي الرائدة ومصنعي الروبوتات المشاركة في الدراسة.
وأكد ألكسندر روبي، أحد المؤلفين، أن معالجة هذه الثغرات الأمنية تتجاوز مجرد تصحيحات البرامج.
ويدعو إلى إعادة تقييم شاملة لكيفيةمنظمة العفو الدولية يتم دمجها في الروبوتات والأنظمة المادية، بناءً على الأفكار المقدمة في أبحاثهم.
وأشار إلى:
"إن ما يجب التأكيد عليه هنا هو أن الأنظمة تصبح أكثر أمانًا عندما تجد نقاط ضعفها. وهذا ينطبق على الأمن السيبراني. وينطبق هذا أيضًا على سلامة الذكاء الاصطناعي."
وأضاف:
"في الواقع، يعد التعاون بين فرق الذكاء الاصطناعي، وهو ممارسة أمان تتضمن الاختبارمنظمة العفو الدولية "إن تطوير أنظمة الذكاء الاصطناعي التوليدي لمواجهة التهديدات والثغرات المحتملة أمر ضروري لحماية أنظمة الذكاء الاصطناعي التوليدي، لأنه بمجرد تحديد نقاط الضعف، يمكنك اختبار هذه الأنظمة وحتى تدريبها لتجنبها."
هناك مقولة تقول:
"الغاية تبرر الوسيلة."
إن السؤال حول ما إذا كان من المبرر اختراق الروبوتات المدعومة بالذكاء الاصطناعي لاكتشاف نقاط الضعف يثير اعتبارات أخلاقية وسلامة معقدة.
ومن ناحية أخرى، يمكن اعتبار مثل هذه الإجراءات بمثابة نهج استباقي لتحديد وتخفيف المخاطر التي قد تؤدي إلى وقوع حوادث ضارة في المستقبل.
من خلال الكشف عن نقاط الضعف، يمكن للباحثين تقديم بروتوكولات أمان وممارسات تصميم أفضل، مما يؤدي في النهاية إلى تعزيز أمنأنظمة الذكاء الاصطناعي.
ومع ذلك، فإن تجاوز بروتوكولات السلامة قد يشكل أيضًا مخاطر كبيرة.
وقد يؤدي ذلك إلى عواقب غير مقصودة، مثل تمكين الإجراءات الضارة أو إنشاء سيناريوهات قد تعرض الناس للخطر.
علاوة على ذلك، فإنه يثير أسئلة أخلاقية حول الموافقة، والمساءلة، والاستغلال المحتمل للمعرفة المكتسبة من مثل هذه الاختراقات.
في نهاية المطاف، إذا تم تنفيذ مثل هذه الإجراءات ضمن إطار خاضع للرقابة وشفاف - مثل ممارسات القرصنة الأخلاقية مع الإشراف والأهداف الواضحة - فقد تساهم بشكل إيجابي في مجالسلامة الذكاء الاصطناعي.
ومع ذلك، لا بد من الحفاظ على توازن دقيق لضمان أن السعي وراء المعرفة لا يؤثر على معايير السلامة أو الأخلاق.