قيود الوصول الخاصة بشركة Microsoft
واجهت شركة Microsoft، المستثمر في OpenAI، مؤخرًا حظرًا مؤقتًا على موظفيها. الوصول إلى ChatGPT، وهي أداة الذكاء الاصطناعي الشهيرة التي طورتها OpenAI.
نشأ الحادث، الذي تم الكشف عنه خلال الإعلانات الداخلية، عن اختبارات غير مقصودة لنظام الأمان لنماذج اللغات الكبيرة (LLMs).
وأوضح المتحدث باسم مايكروسوفت:
"كنا نختبر أنظمة التحكم في نقطة النهاية لحملة LLM وقمنا بتشغيلها عن غير قصد لجميع الموظفين."
امتد تقييد الوصول إلى ما هو أبعد من ChatGPT إلى خدمات الذكاء الاصطناعي الخارجية الأخرى ولكن تم تصحيحه على الفور بواسطة Microsoft بعد تحديد الخطأ.
علاقة مايكروسوفت بـ OpenAI
يسلط هذا الحادث الضوء على اعتماد مايكروسوفت على خدمات OpenAI، التي تعمل على البنية التحتية السحابية لشركة Microsoft Azure.
إنه يستفيد من خدمات OpenAI لتحسين نظام التشغيل Windows وتطبيقات Office.
أشار إعلان مايكروسوفت إلى مخاوف تتعلق بالأمان والبيانات، مما أدى إلى عدم توفر أدوات الذكاء الاصطناعي للموظفين بشكل مؤقت.
أعلنت شركة مايكروسوفت:
"بسبب المخاوف الأمنية والبيانات، لم يعد عدد من أدوات الذكاء الاصطناعي متاحة للموظفين لاستخدامها. في حين أنه من الصحيح أن Microsoft قد استثمرت في OpenAI، وأن ChatGPT لديه ضمانات مدمجة لمنع الاستخدام غير السليم، إلا أن موقع الويب هو مع ذلك خدمة خارجية تابعة لجهة خارجية. وهذا يعني أنه يجب عليك توخي الحذر عند استخدامه بسبب مخاطر الخصوصية والأمان. وهذا ينطبق على أي خدمات ذكاء اصطناعي خارجية أخرى، مثل Midjourney أو Replika أيضًا.
ومع ذلك، تمت استعادة الوصول إلى ChatGPT بسرعة بمجرد تحديد الخطأ، حيث أوضح متحدث باسم Microsoft أن اختبارات نظام الأمان تم تطبيقها عن غير قصد على جميع الموظفين.
شجعت Microsoft موظفيها وعملائها على الاستفادة من خدمات مثل Bing Chat Enterprise وChatGPT Enterprise.
وأضاف المتحدث باسم مايكروسوفت:
"لقد استعدنا الخدمة بعد وقت قصير من تحديد خطأنا. وكما قلنا سابقًا، نحن نشجع الموظفين والعملاء على استخدام خدمات مثل Bing Chat Enterprise وChatGPT Enterprise التي تأتي مع مستويات أعلى من حماية الخصوصية والأمان.
قيود استخدام ChatGPT
أدى تدريب ChatGPT الواسع النطاق على بيانات الإنترنت إلى قيام بعض الشركات بتقييد استخدامها لمنع مشاركة المعلومات السرية.
واستجابة للمشهد المتطور لمخاطر الذكاء الاصطناعي،تطلق OpenAI فريق الاستعداد بقيادة ألكسندر مادري .
مقرها فيمركز معهد ماساتشوستس للتكنولوجيا للتعلم الآلي القابل للنشر يركز هذا الفريق على تقييم وإدارة المخاطر المرتبطة بنماذج الذكاء الاصطناعي.
ويشمل نطاقها مجالات مثل الإقناع الفردي، والأمن السيبراني، وتهديدات المعلومات المضللة.
تعكس إجراءات Microsoft وOpenAI الجهود العالمية التي تبذلها الشركات في مجال الذكاء الاصطناعي لضمان الاستخدام الآمن والمسؤول لتقنيات الذكاء الاصطناعي.
بينما يتصارع العالم مع المخاطر المحتملة للذكاء الاصطناعي الحدودي، تعمل الشركات بنشاط على دفع حدود قدرات الذكاء الاصطناعي مع تخفيف المخاطر المرتبطة بها.