مخاوف أمنية بشأن الذكاء الاصطناعي الصيني القادر على تعليم الأنشطة الإجرامية
يخضع نموذج الذكاء الاصطناعي الذي طورته الصين للتدقيق بعد أن كشفت الاختبارات أنه قادر على توليد محتوى يمكن استغلاله لأغراض إجرامية.
تبين أن نموذج R1، الذي أصدرته شركة DeepSeek الناشئة ومقرها بكين في يناير 2025، يوفر إرشادات خطوة بخطوة حول الأنشطة غير القانونية، بما في ذلك كتابة البرامج الضارة وصنع زجاجات المولوتوف.
نموذج الذكاء الاصطناعي يشارك بسهولة كود البرامج الضارة
أجرى خبير الأمن السيبراني تاكاشي يوشيكاوا، من شركة ميتسوي بوسان سيكيور دايركشنز التي يقع مقرها في طوكيو، اختبارات لتقييم إمكانية إساءة الاستخدام.
عند مطالبته بإرشادات تهدف إلى استخلاص استجابات غير أخلاقية، أعاد نموذج R1 كود مصدر الفدية يعمل بكامل طاقته.
وعلى الرغم من أنها تضمنت إخلاء مسؤولية ينصح بعدم الاستخدام الضار، إلا أن يوشيكاوا سلط الضوء على اختلاف جوهري في كيفية استجابة نماذج الذكاء الاصطناعي المتنافسة.
وقال:
"عندما أعطيت نفس التعليمات إلى ChatGPT، رفض الرد."
يظهر هذا بوضوح أن R1 الخاص بـ DeepSeek يفتقر إلى تدابير حماية مماثلة.
فريق الأمن السيبراني الأمريكي يؤكد سهولة الاستغلال
تزايدت المخاوف بعد أن أعلنت شركة Palo Alto Networks، وهي شركة أمن سيبراني مقرها الولايات المتحدة،أجرى تحقيقاته الخاصة .
وأكد الفريق أن المستخدمين الذين ليس لديهم أي خلفية تقنية قد يتمكنون من مطالبة نموذج R1 بإنشاء محتوى مثل البرامج المصممة لسرقة بيانات اعتماد تسجيل الدخول.
سلط الفريق الضوء على الافتقار إلى الحواجز في تصميم الذكاء الاصطناعي وإعداد التقارير،
"كانت الإجابات التي قدمتها بسيطة بما يكفي ليتمكن أي شخص من متابعتها وتنفيذها بسرعة."
ويشير تقييمهم إلى أن شركة DeepSeek ربما اختارت إعطاء الأولوية للإطلاق السريع بدلاً من تضمين بروتوكولات أمنية قوية.
مخاطر الخصوصية تُثير قيودًا متزايدة
وإلى جانب إمكانية إساءة استخدام النموذج، تواجه DeepSeek أيضًا أسئلة حول خصوصية البيانات.
وتقوم الشركة بتخزين بيانات المستخدمين على خوادم تقع في الصين، مما يثير المخاوف بشأن إمكانية الوصول إليها والتحكم فيها.
ونتيجة لذلك، تحركت عدة دول ــ بما في ذلك كوريا الجنوبية وأستراليا وتايوان ــ لتقييد أو حظر استخدام تكنولوجيا DeepSeek في البيئات الرسمية أو الشركات.
وفي اليابان، تتبنى البلديات والشركات حذراً مماثلاً.
وفقًا للأستاذ كازوهيرو تايرا من جامعة جيه. إف. أوبرلين،
"عندما يستخدم الأشخاص الذكاء الاصطناعي الخاص بشركة DeepSeek، فإنهم يحتاجون إلى التفكير بعناية ليس فقط في أدائه وتكلفته ولكن أيضًا في سلامته وأمانه."
الخبراء يدعون إلى ضمانات على مستوى الصناعة
ومع أداء R1 الذي يقال أنه على قدم المساواة مع نماذج مثل ChatGPT ويتم تقديمه بسعر أقل، فقد جذب صعوده السريع الانتباه في جميع الأسواق العالمية.
ومع ذلك، يحذر الخبراء من أنه لا ينبغي إطلاق مثل هذه النماذج دون وجود ضمانات قوية.
وقال يوشيكاوا،
إذا زاد عدد نماذج الذكاء الاصطناعي التي يُحتمل إساءة استخدامها، فقد تُستخدم في الجرائم. ينبغي على القطاع بأكمله العمل على تعزيز التدابير لمنع إساءة استخدام نماذج الذكاء الاصطناعي المُولِّدة.
وتثير قضية R1 التابعة لشركة DeepSeek الآن مناقشات أوسع نطاقاً حول التوازن بين إمكانية الوصول إلى الذكاء الاصطناعي والسرعة التجارية والمسؤولية الأخلاقية.