تعديل وزاري رفيع المستوى
في خطوة مفاجئة أثارت المزيد من التدقيق على عملاق التكنولوجيا، قامت شركة OpenAI مؤخرًا بإعادة تعيين ألكسندر مادري، رئيس قسم سلامة الذكاء الاصطناعي، إلى دور يتمحور حول استدلال الذكاء الاصطناعي.
في 24 يوليو 2024، أوضح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، علنًا على X (المعروف سابقًا باسم Twitter) أنه تم إعادة تعيين مادري من دوره المشرف على فريق الاستعداد إلى منصب جديد يركز على استدلال الذكاء الاصطناعي.
ووصف ألتمان مشروع مادري الجديد بأنه "مهم للغاية". دون الخوض في مزيد من التفاصيل.
ووفقًا لتغريدة ألتمان، سيعمل مادري الآن على مشروع بحثي جديد مهم، على الرغم من عدم الكشف عن تفاصيل هذا المشروع.
في غضون ذلك، سيتولى المديران التنفيذيان لشركة OpenAI، خواكين كوينونيرو كانديلا وليليان ونغ، مسؤوليات فريق الاستعداد.
يسلط هذا التحول في الأدوار الضوء على إعادة التنظيم الاستراتيجي ضمن عمليات السلامة في OpenAI مع استمرار الشركة في التكيف مع التحديات الناشئة في تطوير الذكاء الاصطناعي.
رحيل ألكسندر مادري ودوره الجديد – من هو؟
يعد ألكسندر مادري، الذي يعمل في الشركة منذ مايو 2023، شخصية بارزة في مجال سلامة الذكاء الاصطناعي وقد قاد سابقًا فريق الاستعداد في OpenAI.
تم تكليف فريقه بتحديد وتقييم وتخفيف المخاطر الكارثية التي تشكلها نماذج الذكاء الاصطناعي.
حظيت خبرة مادري باحترام واسع النطاق، وأثار رحيله مخاوف بشأن التزام الشركة بالسلامة.
وبينما أكد ألتمان على أهمية مشروع مادري البحثي الجديد، أثار قرار عزله من دور السلامة المهم جدلاً.
تجدر الإشارة إلى أن مادري يحتفظ بارتباطات مع معهد ماساتشوستس للتكنولوجيا، حيث يشغل مناصب في مركز التعلم الآلي القابل للنشر ومنتدى سياسات الذكاء الاصطناعي.
حصل على درجة الدكتوراه. حصل على الدكتوراه من معهد ماساتشوستس للتكنولوجيا في عام 2011 وشغل مناصب في Microsoft Research New England وEPFL.
وهو يدير مركز MIT للتعلم الآلي القابل للنشر ويقود تعاون CSAIL-MSR الجدير بالثقة والقوي في مجال الذكاء الاصطناعي.
تركز أبحاثه على نظرية الرسم البياني الخوارزمي، والتحسين، والتعلم الآلي، بهدف تطوير أدوات موثوقة لصنع القرار لتطبيقات العالم الحقيقي.
OpenAI تحت النار
يأتي قرار إعادة تعيين مادري وسط موجة متزايدة من التدقيق والانتقادات الموجهة إلى OpenAI.
وقبل أقل من أسبوع من الإعلان، أرسلت مجموعة من أعضاء مجلس الشيوخ الديمقراطيين رسالة إلى الرئيس التنفيذي سام ألتمان، يعربون فيها عن مخاوفهم بشأن نهج الشركة فيما يتعلق بالسلامة ويطالبون بإجابات على أسئلة محددة بحلول 13 أغسطس 2024.
أعضاء مجلس الشيوخ' تسلط الرسالة الضوء على الضغط المتزايد على شركات الذكاء الاصطناعي لإظهار التزامها بالسلامة العامة.
كانت ممارسات السلامة في OpenAI تحت الأضواء المكثفة لعدة أشهر.
في يونيو/حزيران، نشرت مجموعة من موظفي OpenAI الحاليين والسابقين رسالة مفتوحة، توضح المخاوف بشأن التقدم السريع للذكاء الاصطناعي دون إشراف كاف.
وشددت الرسالة على الحاجة إلى مزيد من الشفافية والمساءلة في الصناعة.
علاوة على ذلك، تفيد التقارير أن لجنة التجارة الفيدرالية (FTC) ووزارة العدل (DOJ) تحققان في OpenAI وMicrosoft وNvidia بشأن انتهاكات محتملة لمكافحة الاحتكار تتعلق بأنشطة الذكاء الاصطناعي الخاصة بهم.
يسلط هذا التحقيق الضوء على التدقيق التنظيمي المتزايد الذي يواجه صناعة الذكاء الاصطناعي.
تأتي إعادة تعيين Madry في وقت تتعامل فيه OpenAI أيضًا مع تحديات أخرى.
قسم السلامة في OpenAI والتغييرات الأخيرة
لقد شهد قسم الثقة والسلامة في OpenAI تغييرات كبيرة مؤخرًا.
في يوليو 2023، قامت الشركة بحل فريق السلامة السابق الخاص بها وأعادت هيكلته إلى ثلاث وحدات متميزة، بعد مغادرة ديف ويلنر، رئيس قسم الثقة والسلامة في OpenAI:
- فريق أنظمة السلامة
- فريق المحاذاة الفائقة
- فريق الاستعداد
يركز فريق أنظمة السلامة على النشر الآمن لنماذج الذكاء الاصطناعي والحد من إساءة الاستخدام، ويعمل فريق Superalignment على سلامة الذكاء الاصطناعي في المستقبل، ويقوم فريق الاستعداد، بقيادة مادري سابقًا، بتقييم المخاطر الجديدة والتخفيف من المخاطر الكارثية المرتبطة بنماذج الذكاء الاصطناعي المتطورة.
وفي وقت سابق من شهر مايو، قامت الشركة بحل فريق مخاطر الذكاء الاصطناعي طويل الأمد، وهو القرار الذي أثار انتقادات من داخل المنظمة وخارجها.
تم حل الفريق بعد أن غادر المؤسس المشارك للشركة، إيليا سوتسكيفر، وجان ليك، الذي قاد فريق مخاطر الذكاء الاصطناعي على المدى الطويل، شركة OpenAI، بسبب الخلافات حول أولويات الشركة.
بعد شهر واحد، أعلن Ilya Sutskever عن شركته الناشئة الجديدة – Safe Superintelligence Inc. (SSI).
دور مايكروسوفت المتضائل
بالإضافة إلى التغييرات الداخلية في OpenAI، تطورت علاقة الشركة مع أصحاب المصلحة الرئيسيين، مثل Microsoft.
في وقت سابق من هذا الشهر، تخلت مايكروسوفت عن مقعدها المراقب في مجلس إدارة OpenAI، مشيرة إلى التقدم الذي أحرزته الشركة في إنشاء هيكل الإدارة الخاص بها.
ومع ذلك، تأتي هذه الخطوة في الوقت الذي تواجه فيه OpenAI تدقيقًا وتحديات متزايدة.
إضعاف التركيز على السلامة؟
أدت إعادة تعيين مادري وإعادة الهيكلة الأوسع داخل قسم السلامة إلى إثارة التكهنات حول حدوث تحول محتمل في أولويات OpenAI.
ويرى النقاد أن هذه الخطوة قد تشير إلى ضعف التزام الشركة بالسلامة لصالح أهداف أخرى، مثل تطوير المنتجات والمنافسة في السوق.
ومع ذلك، أكدت OpenAI أن مادري سيواصل المساهمة في أعمال سلامة الذكاء الاصطناعي الأساسية في منصبه الجديد. وشددت الشركة أيضًا على أهمية السلامة وجهودها المستمرة لمعالجة المخاطر المحتملة.
مع استمرار تسارع صناعة الذكاء الاصطناعي، أصبحت المخاطر المتعلقة بالسلامة أعلى من أي وقت مضى. سيكون للقرارات التي تتخذها شركات مثل OpenAI عواقب بعيدة المدى على المجتمع.
وستكون الأشهر المقبلة حاسمة في تحديد ما إذا كانت شركة OpenAI قادرة على الموازنة بشكل فعال بين الابتكار والمسؤولية.