تقوم OpenAI حاليًا بتدريب خليفة GPT-4 كجزء من جهودها لتعزيز سمعتها. وتقوم الشركة بإنشاء لجنة للسلامة والأمن، بقيادة الرئيس التنفيذي سام ألتمان وثلاثة من أعضاء مجلس الإدارة، لمعالجة المخاوف المتعلقة بالسلامة.
في منشور مدونة حديث، أعلنت شركة OpenAI عن بدء التدريب على نموذجها الحدودي التالي، بهدف تحقيق التقدم نحو الذكاء العام الاصطناعي (AGI). ومع ذلك، لا تزال التفاصيل المتعلقة بتاريخ الإصدار وقدرات خليفة GPT-4 غير معلنة.
التدقيق في ثقافة السلامة وصنع القرار في OpenAI
على الرغم من كونها الشركة الرائدة في مجال الذكاء الاصطناعي التوليدي، إلا أنها واجهت تدقيقًا أخلاقيًا. سلط الباحثان السابقان جان لايكي وجريتشين كروجر الضوء على تجاهل الشركة المزعوم لثقافة وعمليات السلامة، مؤكدين على الحاجة إلى تحسين عملية صنع القرار والمساءلة والشفافية.
"لقد بدأت OpenAI مؤخرًا في تدريب نموذجها الحدودي التالي ونتوقع أن تنقلنا الأنظمة الناتجة إلى المستوى التالي من القدرات في طريقنا إلى الذكاء العام الاصطناعي (AGI)."
استجابة OpenAI للنقد والتركيز على السلامة
وتزيد الانتقادات الأخيرة من الاتحاد الأوروبي فيما يتعلق بدقة ChatGPT من التحديات التي تواجه OpenAI. بالإضافة إلى ذلك، اتهمت الممثلة سكارليت جوهانسون الشركة بالاستخدام غير المصرح به لصوتها، مما زاد الأمور تعقيدًا.
تعمل OpenAI الآن على وضع السلامة كنقطة بيع رئيسية لبرنامج الذكاء الاصطناعي القادم. تهدف الشركة إلى إظهار التزامها بتطوير الذكاء الاصطناعي المسؤول والامتثال التنظيمي.
ستقوم لجنة السلامة والأمن التي تم تشكيلها حديثًا، والتي تضم مديرين ومديرين تنفيذيين رئيسيين، بتقييم وتعزيز عمليات السلامة خلال الأشهر الثلاثة المقبلة. تأتي هذه المبادرة في أعقاب حل فريق السلامة في OpenAI في وقت سابق من هذا الشهر.
تعمل شركة OpenAI على تطوير بديل لـ GPT-4 بينما تواجه تدقيقًا بشأن ممارسات السلامة الخاصة بها. تؤكد الشركة على أهمية السلامة في تطوير الذكاء الاصطناعي وأنشأت لجنة لمعالجة هذه المخاوف.