ألتمان يتمنى أن "يحب الذكاء الاصطناعي الإنسانية"؛ لقد قطع الذكاء الاصطناعي شوطًا طويلاً
الرئيس التنفيذي لشركة OpenAI سام التمان وقد أعرب عن طموح جريء للذكاء الاصطناعي: وهو أن "يحب الإنسانية".
ورغم ثقته في إمكانية دمج هذه السمة في أنظمة الذكاء الاصطناعي، إلا أنه يعترف بعدم وجود يقين.
"أعتقد ذلك"، هكذا قال ألتمان عندما طرح عليه السؤال ديبورا سبار، عميد كلية هارفارد للأعمال.
لقد تطور ما بدا في السابق وكأنه عالم الخيال العلمي، من روايات إسحاق أسيموف إلى الملاحم السينمائية لجيمس كاميرون، إلى نقاش جاد وملّح.
لقد أصبحت فكرة ثورة الذكاء الاصطناعي، والتي تم رفضها في السابق باعتبارها مجرد تكهنات، مصدر قلق تنظيمي مشروع.
إن المحادثات التي كانت في السابق تقتصر على نظريات المؤامرة أصبحت تشكل الآن مناقشات السياسات في جميع أنحاء العالم.
أبرز ألتمانOpenAI علاقة "بناءة إلى حد ما" مع الحكومة، مع الاعتراف بأهمية التعاون في التعامل مع التطور السريع للذكاء الاصطناعي.
وأشار أيضاً إلى أن مشروعاً بهذا الحجم في مجال الذكاء الاصطناعي ربما كان من الأفضل أن تتولى الحكومات قيادته، مؤكداً على التأثيرات المجتمعية الواسعة النطاق المرتبطة بتطويره.
وأشار ألتمان إلى:
"في مجتمع يعمل بشكل جيد، سيكون هذا مشروعًا حكوميًا. ونظرًا لأنه لا يحدث، أعتقد أنه من الأفضل أن يحدث بهذه الطريقة كمشروع أمريكي".
إرشادات السلامة الخاصة بالذكاء الاصطناعي لم يتم وضعها بعد
ولم تحرز الحكومة الفيدرالية سوى تقدم ضئيل في تطوير التشريعات المتعلقة بسلامة الذكاء الاصطناعي.
وفي ولاية كاليفورنيا، جرت محاولة حديثة تهدف إلى تحميل مطوري الذكاء الاصطناعي المسؤولية عن سوء الاستخدام الكارثي، مثل إنشاء أسلحة الدمار الشامل أو شن هجمات على البنية التحتية الحيوية.
على الرغم من أن مشروع القانون أقره المجلس التشريعي للولاية، إلا أنه تم نقضه في نهاية المطاف من قبل الحاكم جافين نيوسوم.
وقد أكدت بعض الأصوات الأكثر نفوذاً في هذا المجال على الحاجة الملحة إلى معالجة مسألة توافق الذكاء الاصطناعي مع الرفاهة البشرية.
أعرب جيفري هينتون الحائز على جائزة نوبل، والذي غالبًا ما يطلق عليه اسم "الأب الروحي للذكاء الاصطناعي"، عن مخاوفه الخطيرة، معترفًا بأنه لا يرى مسارًا واضحًا لضمان سلامة الذكاء الاصطناعي.
بصورة مماثلة، الرئيس التنفيذي لشركة تسلا إيلون ماسك حذرت باستمرار من أن الذكاء الاصطناعي يشكل مخاطر وجودية على البشرية.
ومن عجيب المفارقات أن ماسك، وهو منتقد صريح لممارسات الذكاء الاصطناعي الحالية، كان شخصية رئيسية في تأسيس OpenAI، حيث قدم تمويلاً مبكراً كبيراً ــ وهي المساهمة التي يظل ألتمان "ممتناً لها"، حتى في الوقت الذي يقاضي فيه ماسك المنظمة الآن.
لقد أدى تحدي سلامة الذكاء الاصطناعي إلى إنشاء منظمات متخصصة مخصصة لمعالجة هذه المخاوف.
وقد نشأت مجموعات مثل مركز أبحاث المحاذاة ومنظمة Safe Superintelligence، التي أسسها كبير مسؤولي العلوم السابقين في شركة OpenAI، لاستكشاف استراتيجيات لضمان عمل أنظمة الذكاء الاصطناعي بما يتماشى مع القيم الإنسانية.
وتسلط هذه الجهود الضوء على الاعتراف المتزايد بأن التطور السريع للذكاء الاصطناعي يجب أن يواكبه ضمانات صارمة بنفس القدر لحماية مستقبل البشرية.
ألتمان يأمل أن يتمكن الذكاء الاصطناعي من تحقيق التعاطف
ألتمان يعتقد أن تصميم الذكاء الاصطناعي الحالي يناسب التوافق بشكل جيد، مما يجعله أكثر جدوى مما يفترض الكثيرون لضمان عدم تسبب أنظمة الذكاء الاصطناعي في ضرر للإنسانية.
قال:
"من بين الأشياء التي نجحت بشكل مدهش هي القدرة على محاذاة نظام الذكاء الاصطناعي للتصرف بطريقة معينة. لذا إذا تمكنا من التعبير عن معنى ذلك في مجموعة من الحالات المختلفة، فأعتقد أننا نستطيع جعل النظام يتصرف بهذه الطريقة."
ويقترح نهجًا مبتكرًا لتحديد المبادئ والقيم التي ينبغي أن توجه تطوير الذكاء الاصطناعي: الاستفادة من الذكاء الاصطناعي نفسه للتواصل مع الجمهور بشكل مباشر.
ألتمان تتصور الشركة استخدام روبوتات الدردشة الذكية لاستطلاع آراء مليارات المستخدمين وجمع رؤى حول قيمهم وأولوياتهم.
ومن خلال تعزيز التواصل العميق والواسع النطاق، يمكن للذكاء الاصطناعي اكتساب فهم دقيق للتحديات المجتمعية وتحديد التدابير التي من شأنها أن تخدم رفاهية الجمهور على أفضل وجه.
وأوضح:
"أنا مهتم بالتجربة الفكرية [حيث] يتحدث الذكاء الاصطناعي معك لبضع ساعات حول نظام القيم الخاص بك. يفعل ذلك معي ومع كل شخص آخر. ثم يقول "حسنًا، لا يمكنني إسعاد الجميع طوال الوقت".
ويقترح ألتمان أن هذه الملاحظات الجماعية يمكن استخدامها بعد ذلك لمواءمة أنظمة الذكاء الاصطناعي مع المصالح الأوسع للإنسانية، مما قد يؤدي إلى إنشاء إطار للذكاء الاصطناعي للعمل في وئام مع الأهداف المجتمعية.
ولا يؤكد هذا النهج على إمكانات الذكاء الاصطناعي كأداة لتعزيز الحوار العالمي فحسب، بل يثير أيضًا أسئلة مثيرة للتفكير.
هل يمكن لهذه الطريقة أن تلتقط حقاً تعقيد القيم الإنسانية؟
وهل يمكن أن يحقق التوازن بين وجهات النظر المتنوعة لمليارات البشر لتحقيق رؤية موحدة للخير المجتمعي؟
وتقدم فكرة ألتمان لمحة عن الكيفية التي قد لا يخدم بها الذكاء الاصطناعي الإنسانية فحسب، بل يتعاون معها أيضًا لمعالجة التحديات الأكثر إلحاحًا التي نواجهها.
يشعر العديد من الموظفين السابقين في OpenAI بالقلق من أن السلامة أصبحت في المرتبة الثانية في الذكاء الاصطناعي
كان لدى OpenAI في السابق فريق متخصص في المحاذاة الفائقة يركز على منع الذكاء الفائق الرقمي المستقبلي من الخروج عن السيطرة والتسبب في أضرار كارثية.
في ديسمبر 2023، نشر الفريق ورقة بحثية مبكرة توضح عملية محتملة حيث يشرف نموذج لغوي كبير واحد على نموذج لغوي آخر، ليكون بمثابة ضمانة.
ومع ذلك، بحلول الربيع التالي،تم حل الفريق بعد رحيل قائديه إيليا سوتسكيفر ويان لايكي من الشركة.
واستشهد لايك بالخلافات المتزايدة مع قيادة OpenAI فيما يتعلق بأولويات السلامة مع تقدم الشركة نحو الذكاء الاصطناعي العام (AGI) - وهو مستوى من ذكاء الذكاء الاصطناعي يضاهي مستوى ذكاء البشر.
وقد سلط رحيله الضوء على التوترات المتزايدة بشأن التوازن بين الابتكار والسلامة في السباق لتطوير الذكاء الاصطناعي العام.
عندما غادر لايكي، أعرب ألتمان عن امتنانه لمساهماته في منشور علىX (المعروف سابقًا باسم تويتر) لكن الوضع ترك العديد من التساؤلات حول كيفية تعامل OpenAI مع المخاوف الأمنية الحرجة في المستقبل.