تزايدت وتيرة الاستقالة في OpenAI مع استقالة المستشار الكبير مايلز برونديج برسالة رحيل غامضة
رحيل مسؤول تنفيذي آخر في OpenAI
تنحى مايلز برونداج، المستشار الأول لجاهزية الذكاء الاصطناعي العام في OpenAI، عن منصبه بعد ست سنوات مع المنظمة.
في منشور علىX (المعروف سابقًا باسم تويتر) ومقالة تمت مشاركتها من خلال نشرته الإخبارية، أعرب بروندج عن اعتقاده بأنه قادر على تحقيق تأثير أكبر باعتباره باحثًا ومدافعًا عن حقوق الإنسان في القطاع غير الربحي، حيث يشعر أنه يستطيع "النشر بحرية".
ويخطط للتركيز على أبحاث سياسة الذكاء الاصطناعي خارج صناعة التكنولوجيا.
وأعرب بروندج عن ذلك بقوله:
"كان جزء من السبب وراء اتخاذ هذا القرار الصعب هو أن العمل في OpenAI يمثل فرصة ذات تأثير كبير للغاية، الآن أكثر من أي وقت مضى. تحتاج OpenAI إلى موظفين يهتمون بشدة بالمهمة والملتزمين بدعم ثقافة اتخاذ القرارات الصارمة بشأن التطوير والنشر (بما في ذلك النشر الداخلي، والذي سيصبح مهمًا بشكل متزايد بمرور الوقت)."
لقد أرسلت للتو هذه الرسالة إلى زملائي، وسأشرح بالتفصيل قراري والخطوات التالية في منشور على مدونتي (انظر التغريدة التالية):pic.twitter.com/NwVHQJf8hM
- مايلز برونداج (@Miles_Brundage)23 أكتوبر 2024
تحركاته تأتي في وقت حيثالرئيس التنفيذي لشركة OpenAI سام ألتمان تواجه الشركة مشاكل داخلية وتحولات، مثل تقديم منتجات جديدة مثل نماذج الاتساق لتحفيز تقدم الذكاء الاصطناعي.
وقت بروندج في OpenAI
انضم بروندج إلى OpenAI في عام 2018، حيث لعب دورًا محوريًا في معالجة المخاوف المتعلقة بالسياسة والسلامة المتعلقة بأنظمة الذكاء الاصطناعي المتقدمة مثل ChatGPT.
وتركزت جهوده على الإدارة المسؤولة ونشر هذه التقنيات.
قبل توليه منصبه في OpenAI، كان برونداج زميلاً باحثًا في معهد مستقبل الإنسانية بجامعة أكسفورد.
خلال فترة عمله في OpenAI، ساهم برونداج بشكل كبير في تطوير برنامج الفريق الأحمر للشركة وكان له دور فعال في إنشاء تقارير "بطاقة النظام" التي تقيم نقاط القوة والضعف في نماذج الذكاء الاصطناعي الخاصة بها.
كجزء من فريق استعداد AGI، أكد على النشر الأخلاقي لأنظمة توليد اللغة وقدم التوجيه للمديرين التنفيذيين، بما في ذلكألتمان ، بشأن القضايا الأخلاقية المرتبطة بالذكاء الاصطناعي.
ساهم برونداج في تعزيز ثقافة السلامة القوية داخل المنظمة خلال فترة حرجة من النمو.
✨ تنبيه خروج ملحوظ: مايلز برونداج، الباحث السياسي المخضرم والمستشار الأول في OpenAI، يودع عملاق التكنولوجيا. 👋 والسبب؟ نداء إلى القطاع غير الربحي لتحقيق تأثير أكبر وحرية في النشر. 📚💡
— IntermixTech (@IntermixTech)23 أكتوبر 2024
بروندج، الذي انضم إلى OpenAI في عام 2018 بصفته...
وفي معرض حديثه عن تجربته، وصف برونداج وقته في OpenAI بأنه فرصة ذات تأثير كبير، معترفًا بصعوبة قراره بالتنحي عن منصبه.
وأشاد بمهمة الشركة بينما دعا إلى إدراج المزيد من الباحثين المستقلين في مناقشات سياسة الذكاء الاصطناعي.
الاستقالة المستمرة في OpenAI أصبحت أمرًا طبيعيًا الآن
وتأتي استقالة برونداج في خضم تحول كبير في القيادة في OpenAI، والذي شهد رحيل مديرة التكنولوجيا ميرا موراتي، ومدير الأبحاث بوب ماكجرو، ونائب رئيس الأبحاث باريت زوف في الأسابيع الأخيرة.
وفي وقت سابق من هذا العام، غادر عالم الأبحاث البارز أندريه كارباثي، وتبعهالمؤسس المشارك والرئيس العلمي السابق إيليا سوتسكيفر ، والزعيم الأمني السابق جان لايكي.
وفي أغسطس/آب، أعلن جون شولمان، المؤسس المشارك للشركة، خروجه، كما أن جريج بروكمان، رئيس الشركة، يقضي حاليا إجازة طويلة.
#OpenAI ويواجه الرئيس التنفيذي سام ألتمان مشاكل خفية. وتغادر مديرة التكنولوجيا ميرا موراتي الشركة، بعد رحيل المؤسسين المشاركين إيليا سوتسكيفر وجون شولمان.
- إيثان إيفانز (@EthanEvansVP)25 سبتمبر 2024
أنا لا أعرف سام ألتمان، ولكنني أعرف فرقًا تنفيذية.
وبالإضافة إلى هذا الضجيج، سلطت صحيفة نيويورك تايمز الضوء مؤخرا على الباحث السابق في شركة OpenAI سوشير بالاجي، الذي ترك الشركة بسبب مخاوف من أن التقنيات التي كان يساعد في تطويرها قد تسبب ضررا مجتمعيا أكثر من نفعها.
كتب بالاجي تدوينة في مدونته بتاريخ 23 أكتوبر حول التفاصيل الدقيقة للاستخدام العادل والذكاء الاصطناعي التوليدي.
جدل في OpenAI! يزعم الموظف السابق Suchir Balaji، الذي أمضى أربع سنوات مع الشركة، أن استخدامهم للبيانات المحمية بحقوق الطبع والنشر ينتهك القانون وأن ChatGPT يلحق الضرر بالإنترنت. غادر في أغسطس 2024 - ما رأيك في هذا الاتهام الجريء؟#OpenAI#دردشةGPT …pic.twitter.com/IzLLHn9gyB
— مدونة PUPUWEB (@cheinyeanlim) 24 أكتوبر 2024
ردًا على رحيل برونداج،ألتمان أعرب برونداج عن دعمه لقراره، مشيرًا إلى أن العمل القادم الذي سيقوم به برونداج في مجال أبحاث السياسة الخارجية من شأنه أن يفيد OpenAI.
ومع ذلك، تشير الانتقادات الأخيرة من الموظفين السابقين وأعضاء مجلس الإدارة إلى شعور متزايد بأن OpenAI تعطي الأولوية بشكل متزايد للمصالح التجارية على سلامة الذكاء الاصطناعي.
في منشور له علىإكس وشجع برونداج موظفي OpenAI على "التعبير عن آرائهم" حول كيفية تحسين المنظمة، وطرح أسئلة مهمة حول الاتجاه المستقبلي للشركة والتزامها بتطوير الذكاء الاصطناعي المسؤول.
وكتب:
"قال لي بعض الأشخاص إنهم حزينون لمغادرتي وأعربوا عن تقديرهم لاستعدادي في كثير من الأحيان لإثارة المخاوف أو طرح الأسئلة أثناء وجودي هنا ... لدى OpenAI الكثير من القرارات الصعبة في المستقبل، ولن تتخذ القرارات الصحيحة إذا استسلمنا للتفكير الجماعي."
ما هو التالي بالنسبة لبرويندج؟
وبعد رحيل برونداج، سيعمل قسم الأبحاث الاقتصادية في OpenAI، والذي كان في السابق جزءًا من فريق جاهزية الذكاء الاصطناعي العام، الآن تحت قيادة روني تشاتيرجي، كبير الاقتصاديين المعين حديثًا.
مع انتهاء عمل فريق جاهزية الذكاء الاصطناعي العام، سيتم إعادة توزيع مشاريعه المتبقية على أقسام أخرى داخل OpenAI، حيث من المقرر أن يشرف جوشوا أتشيام، رئيس محاذاة المهمة، على بعض هذه المبادرات.
أعرب متحدث باسم OpenAI عن دعمه الكامل لقرار برونداج بمواصلة البحث السياسي خارج الصناعة، مؤكدًا على الامتنان لمساهماته الكبيرة. https://www.coinlive.com/news/openai-sounds-alarm-on-its-ai-models-being-used-in
وقال المتحدث في بيان:
"إن خطة بروندج للانخراط بشكل كامل في الأبحاث المستقلة حول سياسة الذكاء الاصطناعي تمنحه الفرصة لإحداث تأثير على نطاق أوسع، ونحن متحمسون للتعلم من عمله ومتابعة تأثيره. نحن على ثقة من أن مايلز في منصبه الجديد سيواصل رفع مستوى جودة صنع السياسات في الصناعة والحكومة."
ولكن المتحدث لم يكشف عن هوية الشخص الذي سيتولى مسؤوليات برونداج.
ويخطط برونداج للتركيز على تنظيم الذكاء الاصطناعي، وتأثيره الاقتصادي، والسلامة المستقبلية للذكاء الاصطناعي.
ويعتقد أن هذه المجالات ضرورية لمعالجة التحديات التي تفرضها تطبيقات الذكاء الاصطناعي، وخاصة فيما يتعلق بنماذج مثل نماذج الاتساق.
أوصي بشدة بقراءة هذا الكتاب@مايلز_برونداج ، الذي ينتقل من OAI إلى التركيز على أبحاث الذكاء الاصطناعي المستقلة غير الربحية. إن مستوى تفكيره ونهجه غير الانقسامي جدير بالثناء حقًا.https://t.co/ZDXTJ0Sg5b
— برج مراقبة الذكاء الاصطناعي ⏸️ (@FurtherAwayPL)23 أكتوبر 2024
ويؤكد هذا التحول على الأهمية المتزايدة للحوكمة المسؤولة للذكاء الاصطناعي وتداعياتها على الصناعة ككل.
ألتمان تطلق نماذج الاتساق وتحديثات الذكاء الاصطناعي وسط الاضطرابات المستمرة
وبالتوازي،Altman's OpenAI كشفت شركة جوجل عن نماذج الاتساق، وهو نهج يهدف إلى تسريع عمليات أخذ العينات في الذكاء الاصطناعي.
تم تصميم هذه النماذج لإنتاج عينات عالية الجودة بسرعة أكبر من نماذج الانتشار التقليدية، مما يمثل قفزة كبيرة إلى الأمام في تكنولوجيا الذكاء الاصطناعي.
تقديم نماذج sCMs: أحدث نماذج الاتساق لدينا مع صياغة مبسطة واستقرار تدريب محسّن وقابلية للتطوير.
— أوبن إيه آي (@OpenAI) 23 أكتوبر 2024
تنتج نماذج sCM عينات قابلة للمقارنة بنماذج الانتشار الرائدة ولكنها تتطلب خطوتين فقط لأخذ العينات.https://t.co/rHHSE95sjo
يتماشى هذا الإطلاق مع استراتيجية OpenAI الأوسع لتعزيز قدراتها مع معالجة تحديات الكفاءة، وخاصةبعد الحصول على تمويل بقيمة 6,6 مليار دولار.
ومع ذلك، يأتي تقديم هذه النماذج وسط تدقيق متزايد بشأن ممارسات الشركة، وخاصة مزاعم انتهاكات حقوق النشر المرتبطة بتدريب نماذجها.
أعرب موظفون سابقون في OpenAI، بما في ذلك بالاجي، عن مخاوفهم بشأن أساليب الشركة، مما أثار نقاشًا أوسع حول حوكمة تقنيات الذكاء الاصطناعي.
واتهم بالاجي شركة OpenAI على وجه التحديد بانتهاك حقوق الطبع والنشر من خلال استخدام البيانات المحمية بحقوق الملكية الفكرية للتدريب دون الحصول على إذن، وهو ادعاء ردده آخرون في دعاوى قضائية جماعية مستمرة ضد المنظمة.
لقد شاركت مؤخرًا في مقالة في صحيفة نيويورك تايمز حول الاستخدام العادل والذكاء الاصطناعي التوليدي، ولماذا أشك في أن "الاستخدام العادل" قد يكون دفاعًا معقولًا للعديد من منتجات الذكاء الاصطناعي التوليدي. كما كتبت منشورًا في مدونتي (https://t.co/xhiVyCk2Vk ) حول التفاصيل الدقيقة للاستخدام العادل ولماذا ...
— سوشير بالاجي (@ suchirbalaji) 23 أكتوبر 2024
هل ستؤثر هذه التحولات، بما في ذلك الخروج المستمر لقادة بارزين، علىما هو المسار المستقبلي لـ OpenAI؟
المزيد من الأخبار حول 마일스 브런디지
- 마일스 도이셔, 밈 코인 거래를위한 4 단계 계획 공유صاعدسبحة
- 미 법원, $10억 암호화폐 사기범 마일스 궈에 유죄 판결صاعدسبحة
- 마일스 도이처, 대규모 강세 신호 후 상위 알트코인 공유صاعدسبحة
- マイルズ・ドイチェ、大強気シグナル後のトップ・アルトコインを紹介صاعدسبحة