أدت التطورات في مجال الذكاء الاصطناعي إلى تسليط الضوء على المخاوف الأمنية، حيث يتصارع كل من ChatGPT من OpenAI وAmazon Q مع تسريبات الخصوصية.
قامت OpenAI بسرعة بمعالجة ثغرة أمنية في ChatGPT والتي سمحت باستخراج بيانات الشركة الداخلية.
تم تصنيف هذه التقنية، التي تتضمن مطالبة ChatGPT بتكرار كلمة ما إلى أجل غير مسمى، على أنها بريد عشوائي وانتهاك لشروط خدمة OpenAI.
الاستجابة السريعة لـ OpenAI
اكتشف باحثون من مؤسسات رائدة، بما في ذلك جامعة واشنطن وGoogle DeepMind، أن دفع ChatGPT للانخراط في التكرار الدائم للكلمات كشف النقاب عن معلومات خاصة من توزيع التدريب المسبق لـ OpenAI.
ومع ذلك، بعد إصدار تقريرهم، نفذت OpenAI تدابير وقائية، حيث يقوم ChatGPT-3 وGPT-4 الآن بإصدار تحذيرات للمستخدمين الذين يحاولون معالجة مماثلة.
سياسة المحتوى والمخاوف الأمنية
على الرغم من أن سياسة محتوى OpenAI لا تشير صراحةً إلى الحلقات الدائمة، إلا أنها تستنكر الأنشطة الاحتيالية مثل البريد العشوائي. والجدير بالذكر أن شروط الخدمة تحظر صراحة محاولات الوصول إلى المعلومات الخاصة أو الكشف عن الكود المصدري لأدوات الذكاء الاصطناعي الخاصة بـ OpenAI.
وتعزو الشركة رفضها تلبية طلب التكرار لأجل غير مسمى إلى قيود المعالجة، وقيود الأحرف، وقيود الشبكة والتخزين، وعدم جدوى تنفيذ مثل هذه الأوامر.
DDoS والتحديات المستمرة
يأتي هذا الحادث في أعقاب الكشف الشهر الماضي عن هجوم رفض الخدمة الموزعة (DDoS) على ChatGPT.
اعترف OpenAI بنمط حركة المرور غير الطبيعي الذي تسبب في انقطاع الخدمة بشكل دوري. لا يزال طلب التعليق من OpenAI على هذه الحادثة الأخيرة دون إجابة.
تواجه أمازون، وهي لاعب رئيسي في مجال الذكاء الاصطناعي، تحدياتها الخاصة مع روبوت Q chatbot الذي تم إطلاقه مؤخرًا.
تشير التقارير إلى تسربات محتملة للمعلومات الخاصة، مما يدفع إلى إجراء مقارنات مع وضع OpenAI. قللت أمازون من أهمية هذا الكشف، ونسبته إلى الموظفين الذين شاركوا تعليقاتهم عبر القنوات الداخلية. على الرغم من تأكيد أمازون عدم وجود مشكلات أمنية، إلا أن المخاوف لا تزال قائمة مع انتقال Q من منتج المعاينة إلى التوفر العام.