في الأسبوع الماضي فقط،أثار إطلاق GPT-4o الإثارة بسبب جاذبيتها "أومني" القدرات، التي تجمع بين المعالجة النصية والصوتية والمرئية في الوقت الفعلي، مما يعد بإحداث تأثير تحويلي على التفاعل بين الإنسان والحاسوب ووضع معيار جديد في تنوع الذكاء الاصطناعي وكفاءته.
في تحول مفاجئ للأحداث، أعلن إيليا سوتسكيفر، كبير العلماء والمؤسس المشارك لشركة OpenAI، عن رحيله في X.
وفي اليوم نفسه، أصدر جان لايكي، أحد قادة "فريق المحاذاة الفائقة"، إعلانًا مشابهًا أيضًا.
وقد شهد "فريق التوافق الفائق"، الذي يقوده كلا الشخصين، مؤخرًا سلسلة من عمليات المغادرة. واستجابة لهذا الاتجاه، اتخذت الشركة قرارًا مهمًا يوم الجمعة الماضي: حل الفريق الذي تم إنشاؤه قبل عام لغرض واضح وهو الخوض في المخاطر العميقة وطويلة المدى المرتبطة بالذكاء الاصطناعي.
الاستقالة في OpenAI تثير مخاوف تتعلق بالسلامة
أعلن Sutskever عن رحيله بعد خلافات مع الرئيس التنفيذي لشركة OpenAI Sam Altman حول إعطاء الأولوية لتطوير المنتج على إجراءات السلامة.
وقد ردد ليك، الذي شارك في قيادة "فريق المحاذاة الفائقة" الذي تم حله، هذه المخاوف على وسائل التواصل الاجتماعي، وسلط الضوء على النضال من أجل الحصول على موارد حوسبة كافية وتهميش ثقافة السلامة داخل OpenAI.
ركزت انتقادات Leike بشكل خاص على سعي OpenAI لنماذج الذكاء الاصطناعي القوية مثل GPT-4o، بحجة أن الشركة لم تكن تستعد بشكل كافٍ للمخاطر المحتملة المرتبطة بمثل هذه التطورات. وشدد على الحاجة إلى المزيد من الموارد وثقافة سلامة أقوى لضمان تحقيق الهدف بنجاح.
تأتي هذه الاستقالات وسط فترة من الاضطراب في OpenAI. تعرضت الشركة لانتقادات بسبب إعطاء الأولوية لإصدارات المنتجات على السلامة، حيث أشار الرئيس التنفيذي لشركة Tesla Elon Musk إلى أن السلامة ليست على رأس أولوياتها.
بالإضافة إلى ذلك، تم اتهام OpenAI بإغراق متجر روبوتات الدردشة الخاص بها بالرسائل غير المرغوب فيها واستخلاص البيانات من YouTube في انتهاك لشروط خدمة النظام الأساسي.
OpenAI تطمئن الجمهور بشأن إجراءات السلامة بعد المغادرة الرئيسية
تواجه شركة OpenAI أسئلة حول التزامها بسلامة الذكاء الاصطناعي بعد استقالة شخصيتين رئيسيتين شاركتا في قيادة "فريق التوافق الفائق" التابع للشركة. تركز على السلامة في الذكاء الاصطناعي المتقدم.
استجابة لهذه المخاوف، شارك سام ألتمان، الرئيس التنفيذي لشركة OpenAI، والرئيس جريج بروكمان في تأليف رسالة تؤكد وعيهم بمخاطر وإمكانات الذكاء الاصطناعي العام.
وأشاروا إلى مناصرتهم لمعايير سلامة الذكاء الاصطناعي العام الدولية وعملهم الرائد في فحص أنظمة الذكاء الاصطناعي بحثًا عن التهديدات الكارثية المحتملة.
كما سلط ألتمان وبروكمان الضوء على الجهود المستمرة لضمان النشر الآمن لأنظمة الذكاء الاصطناعي المتقدمة بشكل متزايد.
واستشهدوا بتطوير وإصدار GPT-4، وهو نموذج لغوي كبير، كمثال على تنفيذ تدابير السلامة طوال العملية. وأشاروا كذلك إلى الجهود المستمرة لتحسين السلوك النموذجي ورصد إساءة الاستخدام بناءً على الدروس المستفادة.
في حين أن عمليات المغادرة تثير المخاوف، إلا أن شركة OpenAI تؤكد أن لديها استراتيجية سلامة أوسع نطاقًا تتجاوز "فريق المحاذاة الفائقة" الذي تم حله.
يقال إن الشركة لديها متخصصون في سلامة الذكاء الاصطناعي ضمن فرق مختلفة وفرق سلامة مخصصة، بما في ذلك مجموعة الاستعداد التي تركز على التخفيف من المخاطر الكارثية المحتملة من أنظمة الذكاء الاصطناعي.
بالإضافة إلى ذلك، أعرب ألتمان علنًا عن دعمه لإنشاء وكالة دولية للإشراف على تطوير الذكاء الاصطناعي، معترفًا باحتمال حدوث "ضرر عالمي كبير" للذكاء الاصطناعي. إذا لم تتم إدارتها بشكل صحيح.
تم تعيين OpenAI رئيسًا جديدًا للعلماء
تم تعيين جاكوب باتشوكي رئيسًا جديدًا للعلماء في OpenAI، ليحل محل إيليا سوتسكيفر. لقد لعب باتشوكي دورًا أساسيًا في تطوير GPT-4 وOpenAI Five ومشاريع رئيسية أخرى.
أشاد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بقيادة باتشوكي وخبرته، معربًا عن ثقته في قدرته على توجيه الشركة نحو الذكاء العام الاصطناعي الآمن والمفيد (AGI).
ويأتي هذا الإعلان وسط الاضطرابات الأخيرة في OpenAI، حيث تمت إزالة ألتمان مؤقتًا من منصبه بسبب الافتقار إلى الشفافية.
لعب Sutskever دورًا رئيسيًا في الإطاحة بألتمان ثم الدعوة لعودته، مما أدى إلى تكهنات حول معرفة Sutskever المحتملة بالمعلومات غير المكشوف عنها.
اكتشاف ثغرات أمنية في مكونات ChatGPT الإضافية
في نوفمبر 2023، اكتشف الباحثون ثغرات أمنية خطيرة في المكونات الإضافية التابعة لجهات خارجية لـ ChatGPT، التي أطلقتها OpenAI. قد تسمح هذه العيوب للمتسللين بسرقة بيانات المستخدم والسيطرة على الحسابات عبر الإنترنت.
أثرت الثغرة الأمنية الأولى على عملية التثبيت، مما مكن المتسللين من تثبيت المكونات الإضافية الضارة دون علم المستخدم وسرقة المعلومات الحساسة مثل كلمات المرور من الرسائل الخاصة.
أثرت الثغرة الأمنية الثانية على PluginLab، وهي منصة لإنشاء مكونات إضافية مخصصة لـ ChatGPT. يمكن للمتسللين استغلال هذا الخلل للسيطرة على حسابات المستخدمين على منصات الطرف الثالث مثل GitHub.
أما الثغرة الثالثة فتتضمن معالجة إعادة توجيه OAuth، مما يسمح للمهاجمين بسرقة بيانات اعتماد المستخدم من خلال مكونات إضافية متعددة.
تم اكتشاف الثغرات الأمنية هذه طوال عام 2023. وتم العثور على الثغرات الأولى في يونيو وتم إبلاغ OpenAI بها في يوليو. في سبتمبر، تم تحديد الثغرات الأمنية في المكونات الإضافية PluginLab.AI وKesemAI وتم إبلاغ البائعين المعنيين بها. وقد تم منذ ذلك الحين تصحيح جميع نقاط الضعف التي تم تحديدها.
يقاضي Musk شركة OpenAI، مدعيًا الوعود المنكوثة وخيانة الإنسانية
إيلون ماسك، الرئيس التنفيذي الصريح لشركتي Tesla وSpaceX، لأطلقت معركة قانونية ضد OpenAI ورئيسها التنفيذي سام ألتمان في مارس 2024 .
تتمحور الدعوى حول خلاف أساسي حول مستقبل OpenAI، وهو مختبر أبحاث تم إنشاؤه في البداية بهدف طموح وهو تطوير الذكاء الاصطناعي (AI) لصالح البشرية.
يزعم ماسك، أحد مؤسسي OpenAI في عام 2015، أنه توصل إلى اتفاق مع ألتمان وغيره من القادة بشأن الهيكل غير الربحي للمنظمة.
واستندت هذه الاتفاقية، بحسب الدعوى المرفوعة في سان فرانسيسكو، إلى التزامات شفهية تم التعهد بها خلال تأسيس الشركة. ومع ذلك، شكك خبراء قانونيون في إمكانية تنفيذ مثل هذا الاتفاق، نظرا لعدم وجود عقد رسمي مكتوب.
يكمن جوهر النزاع في تحول OpenAI الأخير نحو نموذج ربحي.
وفي عام 2019، أنشأوا ذراعًا ربحيًا وأصدروا أقوى برنامج دردشة آلي خاص بهم حتى الآن، ChatGPT-4، بموجب اتفاقية ترخيص حصرية مع Microsoft.
ينظر ماسك إلى هذه التصرفات على أنها خيانة للمهمة التأسيسية وتحول نحو إعطاء الأولوية للأرباح على رفاهية البشرية.
تزعم الدعوى القضائية أن OpenAI قد انحرفت كثيرًا عن مسارها الأصلي غير الربحي وأصبحت "شركة فرعية بحكم الأمر الواقع" من مايكروسوفت.
يجادل ماسك بأن ألتمان ورئيس شركة OpenAI جريج بروكمان أكدوا مجددًا التزامهم بالنموذج غير الربحي من خلال الرسائل المكتوبة المتبادلة في السنوات التي أعقبت تأسيس الشركة.
تُظهر إحدى هذه الرسائل، المدرجة في الدعوى القضائية، ألتمان وهو يعبر عن حماسه للهيكل غير الربحي في عام 2017.
أبل تتعاون مع OpenAI وتواجه مخاوف تتعلق بالأمان والخصوصية
من المقرر أن يقدم تحديث iOS 18 القادم من Apple ميزات مهمة للذكاء الاصطناعي (AI)، وتثير الصفقة الأخيرة مع OpenAI، منشئ ChatGPT، تساؤلات حول الأمان والخصوصية لمستخدمي iPhone.
وفي حين أن التفاصيل لا تزال في طور الظهور، تشير التقارير إلى أن شركة Apple ستستفيد من تقنية OpenAI في وظائف روبوتات الدردشة، مما يثير الجدل حول المخاطر المحتملة.
يكمن جوهر نهج Apple تجاه الذكاء الاصطناعي في الالتزام بخصوصية المستخدم. شعارهم "الخصوصية". هذا هو الآيفون." يعكس التركيز على المعالجة على الجهاز، حيث يتم تحليل البيانات مباشرة على هاتف المستخدم بدلاً من إرسالها إلى خوادم خارجية.
يقلل هذا النهج من مخاطر اختراق البيانات والوصول غير المصرح به.
ومع ذلك، فإن المعالجة على الجهاز تمثل قيودًا. يتطلب تدريب نماذج الذكاء الاصطناعي الفعالة كميات هائلة من البيانات، ويمكن أن يكون التخزين المحلي للهاتف بمثابة عنق الزجاجة. هذا هو المكان الذي تأتي فيه الشراكة مع OpenAI.
من خلال الاستعانة بمصادر خارجية لتطوير روبوتات الدردشة إلى OpenAI، من المحتمل أن تتجاوز Apple عقبة تخزين البيانات مع تقديم ميزة المستخدم المطلوبة.
تنشأ مخاوف أمنية عند النظر في نقل البيانات بين أجهزة Apple وخوادم OpenAI.
ولا تزال تفاصيل تبادل البيانات هذا غير واضحة. إذا تم إرسال بيانات المستخدم إلى OpenAI للتدريب على برنامج الدردشة الآلي، فإن ذلك يثير تساؤلات حول مدى أمان التعامل معها وما إذا كانت تلتزم بمعايير الخصوصية الصارمة لشركة Apple.
يعكس هذا النهج الشراكة الحالية بين Apple وGoogle فيما يتعلق بوظائف البحث. هنا، تضمن صفقة بمليارات الدولارات مستوى أساسيًا من خصوصية البيانات، ولكن لا شك في أن بعض معلومات المستخدم يتم نقلها إلى خوادم Google.
يعتمد مدى المخاطر الأمنية المحتملة على تفاصيل التعاون بين Apple وOpenAI. هل سيتم إخفاء هوية بيانات المستخدم قبل الوصول إلى OpenAI؟ إلى متى سيتم الاحتفاظ بها؟ هذه أسئلة حاسمة يجب معالجتها لضمان عدم المساس بخصوصية المستخدم.
تنشأ طبقة أخرى من التعقيد مع قيود المعالجة على الجهاز.
بينما تعمل شركة Apple على تطوير شرائح ذكاء اصطناعي قوية لأحدث أجهزتها، قد لا تتمكن أجهزة iPhone القديمة من التعامل مع متطلبات مهام الذكاء الاصطناعي المعقدة.
قد يؤدي هذا إلى إنشاء سيناريو حيث يستفيد بعض المستخدمين من ميزات الذكاء الاصطناعي المتقدمة على iOS 18، بينما يتخلف البعض الآخر عن الركب بسبب قيود الأجهزة.
في النهاية، تسير استراتيجية الذكاء الاصطناعي التي تتبعها Apple في نظام التشغيل iOS 18 على حبل مشدود بين خصوصية المستخدم والأمان والوظائف. على الرغم من أن المعالجة على الجهاز توفر بيئة آمنة، إلا أنها قد تحد من الوظائف لبعض المستخدمين.
تعقيد سلامة الذكاء الاصطناعي ومواءمته
مفهوم "المثلث المستحيل للذكاء الاصطناعي" يفترض أنه لا يمكن تحسين الكفاءة والسلامة والفوائد بشكل كامل في وقت واحد. في أحدث تطورات OpenAI، يبدو أنه تم تقليل أولوية السلامة لصالح تعظيم الكفاءة وفوائد المستخدم.
ينتقد المدافعون عن الخصوصية والمنظمون شركة OpenAI بسبب قيام برنامج الدردشة الآلي الخاص بها ChatGPT الذي يعمل بالذكاء الاصطناعي بتوليد معلومات غير دقيقة عن الأشخاص.
قدمت منظمة غير ربحية متخصصة في الخصوصية في النمسا تدعى Noyb، أسسها ماكس شريمز، شكوى ضد OpenAI زاعمة أن ChatGPT انتهك اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي من خلال اختلاق تفاصيل شخصية عن الأشخاص.
لقد واجه شريمز هذا الأمر بنفسه عندما أعطاه ChatGPT تاريخ ميلاد غير صحيح، وقال OpenAI إنهم لا يستطيعون إصلاحه.
تم تقديم شكوى أخرى ضد OpenAI العام الماضي في بولندا، وحذرتهم هيئة البيانات الإيطالية أيضًا من انتهاك اللائحة العامة لحماية البيانات.
في الولايات المتحدة، تحقق لجنة التجارة الفيدرالية في احتمال الإضرار بالسمعة بسبب هلوسة ChatGPT.
وجهة نظر من كبير علماء الذكاء الاصطناعي في ميتا
يؤكد يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا والمنافس البارز لـ OpenAI، أن الرحلة نحو الذكاء العام الاصطناعي (AGI) لن تتميز بحدث واحد رائد.
وبدلا من ذلك، سيتميز بالتقدم المستمر في مختلف المجالات.
وهو يعتقد أنه مع كل اختراق كبير في الذكاء الاصطناعي، قد يعلن بعض الناس قبل الأوان أنه تم تحقيق الذكاء الاصطناعي العام، ثم يقومون لاحقًا بتحسين تعريفاتهم وفهمهم.
يقول LeCun أنه قبل معالجة الحاجة الملحة للتحكم في أنظمة الذكاء الاصطناعي التي يُزعم أنها أكثر ذكاءً من البشر، من المهم أن نصمم أولاً أنظمة تتجاوز حتى ذكاء قطة المنزل.
ومن خلال تشبيهه بتطور الطيران، يقترح أنه كما استغرق الأمر عقودًا من الهندسة الدقيقة لإنشاء طائرات آمنة طويلة المدى، فإن تحقيق وضمان سلامة أنظمة الذكاء الاصطناعي عالية الذكاء سيتطلب بالمثل سنوات عديدة من التحسينات التقدمية.
يؤكد LeCun على أن القدرات الحالية للذكاء الاصطناعي، مثل تلك التي تظهر في نماذج اللغات الكبيرة (LLMs)، لا ينبغي الخلط بينها وبين الذكاء الحقيقي.
ويتوقع حدوث تطور تدريجي حيث ستصبح أنظمة الذكاء الاصطناعي أكثر ذكاءً وأمانًا بشكل متزايد من خلال التحسينات المتكررة على مدى فترة طويلة.
هل السباق نحو الذكاء الاصطناعي القوي يضع حدًا للسلامة؟
تسلط الاضطرابات الأخيرة في OpenAI الضوء على المسار المعقد لتطوير الذكاء الاصطناعي.
فمن ناحية، هناك جاذبية التطورات الرائدة مثل قدرات GPT-4o.
وعلى الجانب الآخر تكمن الحاجة الدائمة إلى اتخاذ تدابير سلامة قوية واعتبارات أخلاقية.
إن تحقيق التوازن الصحيح يتطلب التعاون المستمر بين الباحثين وصناع السياسات وعامة الناس.
هل يمكننا تحقيق فوائد تقدم الذكاء الاصطناعي دون المساس بالسلامة والأمن؟
هذا هو السؤال الحاسم الذي سيحدد مستقبل علاقتنا بالذكاء الاصطناعي.