مصدر المقال
استعدوا لأنفسكم: لقد اقترب ظهور الذكاء الاصطناعي الفائق.
أمشاركة مدونة شارك في تأليفه الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، رئيس OpenAI جريج بروكمان ، وكبير العلماء في OpenAI إيليا سوتسكفر ، يحذر من أن تطوير الذكاء الاصطناعي يحتاج إلى تنظيمات صارمة لمنع السيناريوهات الكارثية المحتملة.
& quot؛ الآن هو الوقت المناسب لبدء التفكير في إدارة الذكاء الخارق & quot؛ قال ألتمان ، معترفًا بأن أنظمة الذكاء الاصطناعي المستقبلية يمكن أن تتفوق بشكل كبير على الذكاء الاصطناعي العام من حيث القدرة. "بالنظر إلى الصورة التي نراها الآن ، من المتصور أنه في غضون السنوات العشر القادمة ، ستتجاوز أنظمة الذكاء الاصطناعي مستويات المهارة الخبيرة في معظم المجالات ، وتنفذ قدرًا كبيرًا من النشاط الإنتاجي مثل واحدة من أكبر الشركات اليوم."
صدى المخاوف التي أثارها ألتمان في بلدهشهادة حديثة قبل الكونجرس ، حدد الثلاثي الركائز الثلاث التي اعتبروها حاسمة للتخطيط الاستراتيجي المستقبلي.
نقطة البداية"
أولاً ، تعتقد شركة OpenAI أنه يجب أن يكون هناك توازن بين التحكم والابتكار ، ودفعت باتجاه اتفاقية اجتماعية "تسمح لنا بالحفاظ على السلامة والمساعدة في تكامل هذه الأنظمة بشكل سلس مع المجتمع".
بعد ذلك ، دافعوا عن فكرة & quot؛ هيئة دولية & quot؛ مكلفة بتفتيش النظام ، وإنفاذ التدقيق ، واختبار الامتثال لمعايير السلامة ، وقيود النشر والأمان. وبالتوازي مع الوكالة الدولية للطاقة الذرية ، اقترحوا الشكل الذي قد تبدو عليه هيئة تنظيمية عالمية للذكاء الاصطناعي.
أخيرًا ، أكدوا على الحاجة إلى & quot؛ القدرة التقنية & quot؛ للحفاظ على السيطرة على الذكاء الخارق والحفاظ عليه & quot؛ آمنًا. & quot؛ ما يستتبعه هذا لا يزال غامضًا ، حتى بالنسبة لـ OpenAI ، لكن المنشور حذر من الإجراءات التنظيمية المرهقة مثل التراخيص وعمليات التدقيق الخاصة بالتكنولوجيا التي تقع دون مستوى الذكاء الخارق.
في جوهرها ، الفكرة هي الحفاظ على الذكاء الخارق متماشياً مع نوايا مدربيه ، ومنع "سيناريو الوهم" - انفجار سريع لا يمكن السيطرة عليه في قدرات الذكاء الاصطناعي التي تتفوق على التحكم البشري.
تحذر OpenAI أيضًا من التأثير الكارثي المحتمل الذي قد يحدثه التطوير غير المنضبط لنماذج الذكاء الاصطناعي على المجتمعات المستقبلية. أثار خبراء آخرون في هذا المجال مخاوف مماثلة منالأب الروحي لمنظمة العفو الدولية لمؤسسي شركات الذكاء الاصطناعيمثل الاستقرار AI وحتىعمال أوبن إيه آي السابقين شارك في تدريب GPT LLM في الماضي. جذبت هذه الدعوة العاجلة إلى اتباع نهج استباقي تجاه حوكمة وتنظيم الذكاء الاصطناعي انتباه المنظمين في جميع أنحاء العالم.
تحدي الذكاء الخارق "الآمن"
تعتقد شركة OpenAI أنه بمجرد معالجة هذه النقاط ، يمكن استغلال إمكانات الذكاء الاصطناعي بحرية أكبر من أجل الخير: "هذه التكنولوجيا يمكن أن تحسن مجتمعاتنا ، والقدرة الإبداعية للجميع على استخدام هذه الأدوات الجديدة ستدهشنا بالتأكيد" ، كما قالوا.
أوضح المؤلفون أيضًا أن المساحة تنمو حاليًا بوتيرة متسارعة ، وهذا لن يتغير. تقول المدونة: "إن إيقافه يتطلب شيئًا مثل نظام مراقبة عالمي ، وحتى هذا غير مضمون للعمل".
على الرغم من هذه التحديات ، تظل قيادة OpenAI ملتزمة باستكشاف السؤال ، & quot؛ كيف يمكننا ضمان تحقيق القدرة التقنية للحفاظ على الذكاء الخارق آمنًا؟ & quot؛ ليس لدى العالم إجابة في الوقت الحالي ، لكنه يحتاج بالتأكيد إلى إجابة - واحدة لا يستطيع ChatGPT توفيرها.