أعلنت شركة OpenAI مؤخرًا عن إنشاء لجنة السلامة والأمن، والتي تهدف ظاهريًا إلى معالجة واحدة من أكثر القضايا إثارة للجدل: المخاوف المتعلقة بسلامة الذكاء الاصطناعي. جاء هذا القرار بعد أيام فقط من حل فريق OpenAI Superalignment، الذي كان يركز على التخفيف من المخاطر المرتبطة بالذكاء الاصطناعي. تثير هذه الخطوة الأخيرة الدهشة والأسئلة حول النوايا الحقيقية للجنة وفعاليتها، خاصة في ظل الخلفية المضطربة لتغييرات القيادة وتغير الأولويات داخل OpenAI.
اضطراب القيادة: إقالة ألتمان القصيرة وإعادة منصبه السريعة
في العام الماضي، واجه الرئيس التنفيذي لشركة OpenAI، سام ألتمان، إقالة قصيرة من قبل مجلس إدارة الشركة. وأشار مجلس الإدارة إلى الافتقار إلى الشفافية وفقدان الثقة في قيادة ألتمان كأسباب لإقالته. ومع ذلك، تم التراجع عن هذا القرار بسرعة بعد ثورة الموظفين والضغط من المستثمرين، مما أدى إلى رحيل أعضاء مجلس الإدارة الثلاثة الذين صوتوا في البداية لصالح إقالته. يمثل هذا الحادث تحولًا كبيرًا في حوكمة OpenAI، حيث سلط الضوء على الصراعات الداخلية وأثار تساؤلات حول اتجاه الشركة وشفافيتها.
الجدل: حل فريق Superalignment
وسط هذا الاضطراب في القيادة، اتخذت OpenAI قرارًا مثيرًا للجدل بحل فريق Superalignment الخاص بها. كان هذا الفريق مخصصًا للتخفيف من المخاطر طويلة المدى المرتبطة بالذكاء الاصطناعي العام (AGI). أدى رحيل متخصصين بارزين مثل جان لايكي والمؤسس المشارك إيليا سوتسكيفر، الذي غادر بسبب انحراف OpenAI عن رؤيتها الإنسانية التأسيسية، إلى تفاقم المخاوف. اتهمت Leike، التي تعمل الآن مع شركة Anthropic المنافسة، شركة OpenAI بإعطاء الأولوية "للمنتجات اللامعة". على سلامة الذكاء الاصطناعي الحقيقية، مما يمثل خروجًا صارخًا عن مهمة الشركة الأصلية.
المفارقة: لجنة السلامة والأمن
وفي محاولة لاستعادة الثقة، كشفت OpenAI عن لجنة جديدة للسلامة والأمن، وكان سام ألتمان من بين قادتها. وقد قوبلت هذه الخطوة بالتشكيك والسخرية، لأنها تضع آلتمان في الأساس في منصب الإشراف على القضايا التي ظهرت تحت قيادته وتصحيحها. ولم يصمت مجتمع الذكاء الاصطناعي والتكنولوجيا عن هذا التضارب الواضح في المصالح.
علق خبير سياسة الذكاء الاصطناعي تولجا بيلج على تويتر قائلاً: "قام سام ألتمان (عضو مجلس إدارة OpenAI) بتعيين نفسه ليكون عضوًا في لجنة السلامة والأمن للاحتفال
واجباته المنزلية بصفته سام التمان (الرئيس التنفيذي)." وقال مايكل جارتنبرج، محلل جارتنر، ساخرًا: "السيد. فوكس، هل يمكن أن أزعجك بمشاهدة بيت الدجاج هذا من فضلك؟
وفي الوقت نفسه، أشار الصحفي التكنولوجي بارمي أولسون إلى أن "OpenAI أنشأت للتو مجلسًا إشرافيًا مملوءًا بمدرائها التنفيذيين وألتمان نفسه. وهذا نهج مجرب ومختبر للتنظيم الذاتي في مجال التكنولوجيا ولا يفعل شيئًا تقريبًا في طريق الرقابة الفعلية.
ونظراً لسياق اللجنة الجديدة وتكوينها، فمن الصعب أن نرى كيف ستعالج بفعالية المخاوف المتعلقة بسلامة الذكاء الاصطناعي التي أثيرت. والمفارقة المتمثلة في أن آلتمان، الذي كان في قلب الخلافات، يتولى قيادة اللجنة المكلفة بتخفيف المخاطر، لا تغيب عن المراقبين. ويبدو الأمر بمثابة خطوة استراتيجية لتهدئة المنتقدين وليس محاولة حقيقية للإصلاح. ولذلك، فإن احتمالات قيام هذه اللجنة بغرس الثقة الحقيقية وممارسة الرقابة الهادفة تبدو ضئيلة. ومع استمرار OpenAI في التنقل في مشهدها المعقد، يبقى أن نرى ما إذا كانت هذه الخطوة الأخيرة ستفيد حقًا سلامة الذكاء الاصطناعي أم أنها ستكون مجرد طبقة أخرى من مناورة الشركات.