1 مارس 2024 - هناك عاصفة قانونية تختمر في وادي السيليكون، ويقاضي ماسك الرئيس التنفيذي لشركة OpenAI والمؤسس المشارك سام ألتمان أمام المحكمة. في دعوى قضائية مفصلة، يتهم ماسك ألتمان ومتهمين آخرين بانتهاك الاتفاقية التأسيسية لشركة OpenAI، والتي تهدف إلى تطوير تكنولوجيا الذكاء الاصطناعي غير الربحية التي تفيد البشرية جمعاء.
وفقًا للملف، يتهم Musk ومدعون آخرون إدارة OpenAI بالابتعاد عن مهمتها غير الربحية في عام 2023، وبدلاً من ذلك، أنشأ العمل مع Microsoft مؤسسة حصرية الشراكة وحافظت على سرية تقنية الذكاء الاصطناعي المتقدمة GPT-4 لخدمة المصالح التجارية لشركة Microsoft. وقد وُصِف هذا التحول بأنه خيانة صارخة لطبيعة OpenAI غير الهادفة للربح ويتعارض مع الغرض من تأسيسها.
ادعى ماسك في الدعوى القضائية أنه عندما شارك في تأسيس OpenAI مع ألتمان وجريج بروكمان، استندوا إلى مخاوف مشتركة بشأن المخاطر المحتملة لتكنولوجيا الذكاء الاصطناعي والذكاء الاصطناعي. نحن بحاجة إلى التأكد من أن الذكاء الاصطناعي يعد بأن التطور التكنولوجي يمكن أن يفيد البشرية جمعاء. ومع ذلك، مع تعزيز OpenAI ريادتها في مجال الذكاء الاصطناعي، خاصة بعد تطوير نموذج GPT-4 الذي كان من المحتمل أن يكون مبكرًا للذكاء الاصطناعي العام (AGI)، خضع اتجاه الشركة لتحول جوهري.
تُفصّل وثائق الدعوى تشكيل OpenAI، بما في ذلك استثمار ماسك المالي المبكر في الشركة، واقتراحات لاتجاهات البحث، والجهود المبذولة لتوظيف كبار العلماء والمهندسين. تعتبر هذه الجهود عوامل رئيسية في الصعود السريع لشركة OpenAI. ومع ذلك، يعتقد " ماسك " الآن أن مساهماته قد تم استخدامها لأغراض تتعارض مع نواياه الأصلية.
فيما يلي المحتويات الرئيسية لوثيقة الدعوى هذه:
مخاوف المسك حول الذكاء الاصطناعي العام
في عام 2012، التقى إيلون ماسك بدميس هاسابيس، المؤسس المشارك لشركة DeepMind، وهي شركة ذكاء اصطناعي ربحية. في هذا الوقت تقريبًا، التقى " ماسك " و"هاسابيس" في منشأة "سبيس إكس" في هوثورن، كاليفورنيا، وناقشا أكبر التهديدات التي تواجه المجتمع. في هذه المحادثة، يسلط هاسابيس الضوء على المخاطر المحتملة التي قد يشكلها التقدم في الذكاء الاصطناعي على المجتمع.
بعد هذه المحادثة مع هاسابيس، أصبح " ماسك " قلقًا بشكل متزايد بشأن إمكانية أن يصبح الذكاء الاصطناعي فائق الذكاء، ويتجاوز الذكاء البشري ويهدد البشرية. في الواقع، ماسك ليس الوحيد الذي يخشى أبحاث الذكاء الاصطناعي التي تجريها شركة DeepMind ومخاطر الذكاء الاصطناعي. بعد الاجتماع مع مستثمري هاسابيس وديب مايند، ورد أن أحد المستثمرين علق قائلاً إن أفضل شيء يمكن أن يفعله للإنسانية هو إطلاق النار على هاسابيس على الفور.
بدأ ماسك في مناقشة الذكاء الاصطناعي وDeepMind مع الأشخاص في دائرته، مثل لاري بيج، الذي كان حينها الرئيس التنفيذي لشركة Alphabet, Inc، الشركة الأم لشركة Google. غالبًا ما كان " ماسك " يتحدث عن مخاطر الذكاء الاصطناعي في محادثاته مع " بيج "، ولكن لصدمة " ماسك "، لم يكن " بيج " قلقًا بشأن ذلك. في عام 2013، على سبيل المثال، خاض " ماسك " حوارًا ساخنًا مع " بايج " حول مخاطر الذكاء الاصطناعي. وحذر من أنه ما لم يتم اتخاذ تدابير السلامة، "يمكن لأنظمة الذكاء الاصطناعي أن تحل محل البشر، مما يجعل جنسنا البشري غير ذي صلة أو حتى منقرضًا." ورد بيج بأن هذه كانت مجرد "المرحلة التالية من التطور"، مدعيًا أن ماسك هو "عالم أنواع". أي تفضيل الجنس البشري على الآلات الذكية. أجاب " ماسك ": "نعم، أنا مؤيد للإنسان."
بحلول أواخر عام 2013، كان " ماسك " يشعر بقلق عميق بشأن خطة استحواذ Google على شركة DeepMind. في ذلك الوقت، كانت DeepMind واحدة من أكثر شركات الذكاء الاصطناعي تقدمًا في الصناعة. على هذا النحو، يشعر " ماسك " بقلق عميق من أن تكنولوجيا الذكاء الاصطناعي الخاصة بـ DeepMind ستكون في أيدي شخص متعجرف جدًا بشأن قوتها وقد يخفي تصميمها وقدراتها خلف الأبواب المغلقة.
ولمنع وقوع هذه التكنولوجيا القوية في أيدي Google، حاول Luke Nosek، المؤسس المشارك لـ Musk وPayPal، جمع الأموال لشراء DeepMind. وتوجت هذه الجهود بمكالمة هاتفية استمرت لمدة ساعة، حيث بذل " ماسك " و"نوسيك" جهدًا أخيرًا لإقناع "هاسابيس" بعدم بيع "ديب مايند" إلى "جوجل". قال ماسك لهاسابيس: "لا ينبغي أن يتحكم لاري [بيدج] في مستقبل الذكاء الاصطناعي."
فشلت جهود ماسك ونوزيك. في يناير 2014، ظهرت تقارير تفيد بأن شركة جوجل ستستحوذ على شركة DeepMind. ومع ذلك، فإن هذا لم يمنع " ماسك " من الاستمرار في ضمان التطوير والممارسة الآمنة للذكاء الاصطناعي.
بعد أن استحوذت Google على DeepMind، بدأ Musk "في استضافة سلسلة من مناقشات العشاء الخاصة به حول طرق محاربة Google وتعزيز سلامة الذكاء الاصطناعي." كما اتصل Musk أيضًا برئيس الشركة. الولايات المتحدة باراك أوباما يناقش الذكاء الاصطناعي وأمن الذكاء الاصطناعي. في عام 2015، التقى ماسك بأوباما لشرح مخاطر الذكاء الاصطناعي والدعوة إلى التنظيم. يعتقد ماسك أن أوباما فهم مخاطر الذكاء الاصطناعي، لكن التنظيم لم يتحقق أبدًا.
على الرغم من هذه النكسات، يواصل " ماسك " الدعوة إلى ممارسات الذكاء الاصطناعي الآمنة. في عام 2015، بدا أن ماسك وجد شخصًا يفهم مخاوفه بشأن الذكاء الاصطناعي ورغبته في إبقاء أول الذكاء الاصطناعي العام بعيدًا عن الشركات الخاصة مثل جوجل: المدعى عليه سام ألتمان.
في ذلك الوقت، كان ألتمان رئيسًا لشركة Y Combinator، وهي شركة تسريع الشركات الناشئة في وادي السيليكون. وقبل ذلك، شارك ألتمان في العديد من المشاريع الريادية.
يبدو أن "ألتمان" يشارك " ماسك " مخاوفه بشأن الذكاء الاصطناعي. في منشور عام على مدونة يعود تاريخه إلى عام 2014، ادعى ألتمان أنه إذا تم إنشاء الذكاء الاصطناعي العام، "فسيكون ذلك أكبر تطور على الإطلاق في مجال التكنولوجيا". وأشار ألتمان إلى أن العديد من الشركات كانت تتجه نحو تحقيق الذكاء الاصطناعي العام، لكنه أقر بأن "الشركات الجيدة مهتمة بالذكاء الاصطناعي العام". هذا سري للغاية."
في 25 فبراير 2015، أعرب ألتمان أيضًا عن مخاوفه بشأن تطور "ذكاء الآلة الخارق"، والذي يعتقد أنه "قد يكون "هو أكبر تهديد لاستمرار وجود الجنس البشري" وشدد على أنه "كإنسان مبرمج للبقاء والتكاثر، أشعر أنه يجب علينا محاربته". وبالإضافة إلى ذلك، انتقد ألتمان أولئك الذين يعتقدون أن " "الذكاء الآلي الخارق" أمر خطير ولكنه يعتبره أمرًا خطيرًا بالنسبة للأشخاص الذين "لن يحدثوا أبدًا أو هم بالتأكيد بعيدون جدًا"، ويتهمهم بـ "التفكير المتراخي بشكل خطير".
في الواقع، في أوائل عام 2015، أشاد ألتمان باللوائح الإدارية كوسيلة لضمان الإنشاء الآمن للذكاء الاصطناعي، واقترح أن تقوم مجموعة من "الأشخاص الأذكياء للغاية الذين لديهم الكثير من الموارد" بمشاركة "الشركات الأمريكية بطريقة ما" من المرجح أن يكون أول من يحقق مجموعة "ذكاء الآلة الخارقة".
في وقت لاحق من ذلك الشهر، اتصل "ألتمان" بـ " ماسك " ليسأله عما إذا كان مهتمًا بصياغة رسالة مفتوحة إلى الحكومة الأمريكية لمناقشة الذكاء الاصطناعي. بدأ الاثنان في إعداد الرسائل والتواصل مع الأشخاص المؤثرين في مجالات التكنولوجيا والذكاء الاصطناعي للتوقيع. وسرعان ما انتشرت شائعات الرسالة في جميع أنحاء الصناعة.
على سبيل المثال، في أبريل 2015، اتصل هاسابيس بـ Musk ليخبره أنه سمع من مصادر متعددة أن Musk كان يقوم بصياغة رسالة إلى الرئيس يدعو فيها إلى تنظيم الذكاء الاصطناعي. ودافع ماسك عن فكرة تنظيم الذكاء الاصطناعي أمام هاسابيس، قائلاً: "إذا تم ذلك بشكل صحيح، فقد يؤدي ذلك إلى تسريع تطوير الذكاء الاصطناعي على المدى الطويل. وبدون راحة البال العامة التي توفرها الرقابة التنظيمية، هناك احتمال كبير بأن الذكاء الاصطناعي سوف يتطور". تسبب ضررًا كبيرًا ومن ثم سيتم إيقاف أبحاث الذكاء الاصطناعي." ظروف محظورة لأنها تشكل خطراً على السلامة العامة."
بعد خمسة أيام من اتصال هاسابيس بماسك بخصوص الأمر في رسالة مفتوحة، أعلن هاسابيس عن الاجتماع الأول للجنة أخلاقيات الذكاء الاصطناعي في Google DeepMind، وهو ما وعدت به Google وDeepMind عندما استحوذت Google على DeepMind قبل عامين. تمت دعوة " ماسك " ليصبح عضوًا في اللجنة واقترح عقد الاجتماع الأول في SpaceX في هوثورن، كاليفورنيا. من الواضح أن " ماسك " شعر بعد الاجتماع الأول أن اللجنة لم تكن جهدًا جادًا، بل كانت مجرد ستار لمحاولة إبطاء تنظيم الذكاء الاصطناعي.
تم إصدار الرسالة المفتوحة لاحقًا في 28 أكتوبر 2015، ووقعها أكثر من أحد عشر ألف شخص، بما في ذلك ماسك وستيفن هوكينج وستيف وزنياك.
اتفاقية OpenAI في المؤسسة
2015 مايو في مارس في 25 نوفمبر، أرسل سام ألتمان بريدًا إلكترونيًا إلى إيلون ماسك، يعبر فيه عن أفكاره العميقة حول ما إذا كان من الممكن منع البشر من تطوير الذكاء الاصطناعي. يعتقد ألتمان أن الإجابة هي بالتأكيد لا. إذا كان تطور الذكاء الاصطناعي أمرًا لا مفر منه، فسيكون من الأفضل أن يقوم شخص آخر غير جوجل بذلك أولاً. لدى ألتمان فكرة: اسمح لشركة Y Combinator بإطلاق مشروع مانهاتن للذكاء الاصطناعي (والذي قد يكون اسمًا مناسبًا). واقترح أن تكون التكنولوجيا ملكًا للعالم من خلال منظمة غير ربحية، وإذا نجح المشروع، فيمكن للمشاركين الحصول على تعويض مماثل لتلك التي تحصل عليها الشركة الناشئة. من الواضح أنهم سوف يلتزمون بجميع اللوائح ويدعمونها بنشاط. ورد ماسك بأن الأمر "يستحق الحديث عنه".
بعد مزيد من الاتصالات، في 24 يونيو 2015، أرسل ألتمان إلى "موسك" اقتراحًا تفصيليًا بشأن "مختبر الذكاء الاصطناعي" الجديد هذا. "ستتمثل المهمة في إنشاء أول ذكاء اصطناعي للأغراض العامة واستخدامه للتمكين الشخصي - أي أن الإصدارات المستقبلية الموزعة تبدو الأكثر أمانًا. وبشكل أعم، يجب أن يكون الأمن متطلبًا من الدرجة الأولى." تكون مملوكة للمؤسسة وتستخدم من أجل "خير العالم". واقترح البدء بمجموعة مكونة من 7 إلى 10 أشخاص والتوسع من هناك. كما اقترح هيكل الإدارة. أجاب " ماسك " قائلاً: "متفق عليه من جميع النواحي."
بعد ذلك بوقت قصير، بدأ ألتمان في تجنيد آخرين للمساعدة في تطوير المشروع. والجدير بالذكر أن ألتمان لجأ إلى جريجوري بروكمان طلبًا للمساعدة. في نوفمبر 2015، ربط ألتمان بين بروكمان وماسك عبر البريد الإلكتروني. وفيما يتعلق بالمشروع، قال بروكمان لماسك: "آمل أن نذهب إلى هذا المجال كمجموعة محايدة تسعى إلى تعاون واسع النطاق وتحول المحادثة نحو الفوز بالإنسانية بدلاً من فوز أي مجموعة أو شركة معينة. (أعتقد أن الأمر يتعلق بجعل أنفسنا أفضل طريقة لقيادة منظمة بحثية.)" كان " ماسك " متفائلًا بشأن إمكانية وجود فريق بحث محايد للذكاء الاصطناعي يركز على الإنسانية بدلاً من اهتمامات أي شخص أو مجموعة معينة، وأخبر بروكمان أنه سيلتزم بالتمويل.
اقترح " ماسك " اسمًا للمختبر الجديد، يعكس اتفاقية التأسيس: "Open AI Institute" أو "OpenAI" للاختصار.
استرشادًا بالمبادئ التي قامت عليها الاتفاقية، انضم " ماسك " إلى ألتمان وبروكمان لإطلاق المشروع رسميًا وتطويره. وقد شارك " ماسك " بنشاط في المشروع قبل الإعلان عنه علنًا. على سبيل المثال، قدم " ماسك " المشورة لبروكمان بشأن حزم تعويضات الموظفين، وشاركه استراتيجياته الخاصة بالتعويضات والاحتفاظ بهم.
في 8 ديسمبر 2015، تم تقديم شهادة تأسيس شركة OpenAI, Inc. إلى وزير خارجية ولاية ديلاوير. توثق الشهادة اتفاقية التأسيس كتابيًا: "الشركة هي شركة غير ربحية تم تنظيمها فقط لأغراض خيرية و/أو تعليمية وفقًا للمادة 501(ج)(3) من قانون الإيرادات الداخلية لعام 1986، بصيغته المعدلة، أو أي الأحكام المقابلة المستقبلية لقانون الإيرادات الداخلية الأمريكي. الغرض المحدد للشركة هو تمويل البحث والتطوير والتوزيع للتكنولوجيا المتعلقة بالذكاء الاصطناعي. وستفيد التكنولوجيا الناتجة الجمهور، وستسعى الشركة إلى فتح مصدر التكنولوجيا حيثما ينطبق ذلك لصالح الجمهور."
أعلنت شركة OpenAI, Inc. في 11 كانون الأول (ديسمبر) 2015. في الإعلان، تم تعيين ماسك وألتمان كرئيسين مشاركين، وتم تعيين بروكمان رئيسًا للتكنولوجيا. وشدد الإعلان على أن OpenAI تهدف إلى "إفادة الإنسانية" وأن أبحاثها "لا تخضع لالتزامات مالية": "OpenAI هي شركة أبحاث غير ربحية في مجال الذكاء الاصطناعي. هدفنا هو تطوير الذكاء الرقمي بطريقة من المرجح أن يفيد البشرية جمعاء، وغير مقيد بالحاجة إلى تحقيق عائد مالي. ونظرًا لأن أبحاثنا لا تخضع لالتزامات مالية، فيمكننا التركيز بشكل أفضل على التأثير الإيجابي على البشرية. "
مساهمات Musk المبكرة في OpenAI
لعب Elon Musk دورًا رئيسيًا في الإطلاق الناجح لـ OpenAI, Inc. في يوم الإعلان العام، كتب ماسك عبر البريد الإلكتروني أن "أهم اعتباراتنا هو توظيف أفضل المواهب"، ووعد بأن المساعدة في جهود التوظيف ستكون "أولويته المطلقة على مدار الساعة". واعترف " ماسك " قائلاً: "إن المنظمات التي تعرفها تتفوق علينا عددًا هائلاً من الأشخاص والموارد، لكننا نقف إلى جانب العدالة، وهذا يعني الكثير. أنا أحب الاحتمالات". المكانة والتأثير لمساعدة جهود التوظيف. حقيقة أن شركة OpenAI, Inc. هي مشروع يرعاه إيلون ماسك، ويعمل ماسك كرئيس مشارك، لعبت دورًا رئيسيًا في جهود التوظيف التي تبذلها شركة OpenAI، Inc.، خاصة في مواجهة جهود Google/DeepMind المضادة للتوظيف. بدون مشاركة " ماسك " وجهود الدعم الكبيرة والموارد - والتركيز الذي وضعه على اتفاقية التأسيس - من المحتمل أن شركة OpenAI, Inc. لم تكن لتنطلق على الإطلاق.
أحد أهم التعيينات المبكرة هو منصب كبير العلماء. أراد كل من ألتمان وبروكمان وماسك أن يقوم إيليا سوتسكيفر، عالم أبحاث Google، بهذا الدور. كان Sutskever مترددًا بشأن ترك Google للانضمام إلى المشروع، ولكن في نهاية المطاف، أقنعت مكالمة هاتفية من Musk في يوم الإعلان العام لشركة OpenAI, Inc. Sutskever بالالتزام بالانضمام إلى المشروع ويصبح كبير العلماء في شركة OpenAI, Inc..
في الأشهر التالية، قام " ماسك " بنشاط في توظيف شركة OpenAI, Inc. تقدم Google/DeepMind عروضًا مضادة مربحة بشكل متزايد إلى مسؤولي التوظيف في شركة OpenAI, Inc.، في محاولة لخنق الأعمال الناشئة. في أواخر فبراير، أرسل " ماسك " بريدًا إلكترونيًا إلى بروكمان وألتمان، يكرر فيه "أننا بحاجة إلى القيام بما هو ضروري للحصول على أفضل المواهب. دعونا نرفع عرضنا. إذا احتجنا في مرحلة ما إلى إعادة النظر في تعويضات الأشخاص الحاليين، فهذا أيضًا لا ينطبق". "لا يهم. إما أن نحصل على أفضل المواهب في العالم أو نتغلب على ديب مايند. إن جذب أفضل المواهب بأي ثمن هو أمر جيد بالنسبة لي. ديب مايند يضع الكثير من الضغط النفسي علي. إذا فازوا، فسيكون ذلك سيئًا للغاية أخبار لفلسفتهم المتمثلة في الرغبة في السيطرة على العالم. وبالنظر إلى مستوى الموهبة هناك، فمن الواضح أنهم يحققون تقدمًا كبيرًا. الاتصالات والتأثير للتوظيف نيابة عن شركة OpenAI, Inc.، عندما يطلب من Brockman وAltman رفع عروضهم و"القيام بما هو ضروري للحصول على أفضل المواهب"، فهو يمول تلك العروض الأعلى. في عام 2016 وحده، ساهم " ماسك " بأكثر من 15 مليون دولار أمريكي لشركة OpenAI, Inc.، أكثر من أي جهة مانحة أخرى. وقد مكّن تمويله شركة OpenAI, Inc. من تجميع فريق من أفضل المواهب. وبالمثل، في عام 2017، ساهم ماسك بما يقرب من 20 مليون دولار لشركة OpenAI, Inc.، مرة أخرى أكثر من أي جهة مانحة أخرى. بشكل عام، ساهم ماسك بأكثر من 44 مليون دولار أمريكي في شركة OpenAI, Inc. من عام 2016 إلى سبتمبر 2020.
بالإضافة إلى ذلك، ومن خلال Musk Industries LLC، يستأجر Musk ويدفع رسوم إيجار شهرية للمساحة المكتبية الأولية لشركة OpenAI, Inc. في مبنى Pioneer في سان فرانسيسكو. يزور Musk بانتظام شركة OpenAI, Inc. ويحضر الأحداث الهامة للشركة، مثل عندما تم التبرع بأول حاسوب عملاق DGX-1 AI لشركة OpenAI, Inc. في عام 2016. يتلقى Musk تحديثات حول التقدم الذي تحرزه شركة OpenAI, Inc. ويقدم ملاحظاته واقتراحاته.
كرر ألتمان وبروكمان اتفاقية التأسيس عدة مرات
في عام 2017، اقترح جريج بروكمان وآخرون تحويل شركة OpenAI, Inc. من منظمة غير ربحية إلى شركة ربحية. بعد أسابيع من التواصل، قال إيلون ماسك لبروكمان وإيليا سوتسكيفر وسام ألتمان: "إما أن تفعل شيئًا بنفسك، أو تستمر في OpenAI كمنظمة غير ربحية. وإلى أن تلتزم التزامًا صارمًا بالبقاء، لن أقوم بتمويل OpenAI بعد الآن". أو أنا أحمق بشكل أساسي أعطي أموالًا مجانية لشركة ناشئة. نهاية المناقشة."
ردًا على ذلك، أخبر ألتمان "موسك" أنه "لا يزال شغوفًا بـ هيكل غير ربحي!" في النهاية، أوضح بروكمان وسوتسكيفر لـ " ماسك " أنهما أيضًا عازمان على الحفاظ على الهيكل غير الربحي وسيقضيان العام التالي في العمل على جمع الأموال للمؤسسة غير الربحية.
في 21 فبراير 2018، استقال " ماسك " من منصبه كرئيس مشارك لشركة OpenAI, Inc. على الرغم من ذلك، يواصل " ماسك " تقديم التمويل لشركة OpenAI, Inc. بموجب اتفاقية التأسيس. على سبيل المثال، في عام 2018، تبرع Musk بحوالي 3.5 مليون دولار لشركة OpenAI, Inc. ويواصل أيضًا تلقي التحديثات حول OpenAI, Inc. من Brockman وSutskever وAltman.
في أبريل 2018، أرسل ألتمان إلى Musk مسودة ميثاق OpenAI وطلب تعليقاته. تنص المسودة على أن مهمة OpenAI هي التأكد من أن الذكاء الاصطناعي العام "يفيد البشرية جمعاء". وينص على: "نحن ملتزمون باستخدام أي تأثير لدينا على نشر الذكاء الاصطناعي العام لضمان استخدامه لصالح البشرية جمعاء ولتجنب تمكين استخدام الذكاء الاصطناعي أو الذكاء الاصطناعي العام الذي يمكن أن يضر البشرية أو يركز القوة بشكل غير مبرر. المسؤولية الائتمانية الأولى هي تجاه الإنسانية. ونتوقع الحاجة إلى تعبئة موارد كبيرة لتحقيق مهمتنا، ولكننا سنسعى دائمًا لتقليل تضارب المصالح الذي يمكن أن يضر بالمصالح الأوسع. "
11 مارس 2019 أعلنت اليوم شركة OpenAI, Inc. أنها ستقوم بإنشاء شركة فرعية مربحة: OpenAI, L.P. يتم إخبار المستثمرين المحتملين بـ "تحذير مهم" في الجزء العلوي من ورقة الشروط الموجزة بأن الكيان الربحي "موجود لتعزيز مهمة OpenAI Inc. (منظمة غير ربحية) لضمان تطوير AGI آمن وإفادة البشرية جمعاء. " قال الشريك العام إن التزامات هذه المهمة والمبادئ المنصوص عليها في ميثاق شركة OpenAI Inc. لها الأسبقية على أي التزام بتحقيق الأرباح." لذلك، يُنصح المستثمرون صراحةً "بالتعامل مع أي استثمار في OpenAI LP باعتباره تبرعًا."< /p>
بعد الإعلان، اتصل " ماسك " بـ "ألتمان" وطلب منه "توضيح أنه ليس لدي أي مصلحة مالية في ذراع OpenAI الربحية". واصلت دعم المنظمة غير الربحية OpenAI, Inc.، حيث تبرعت بمبلغ 348 دولارًا آخر في عام 2019، بقيمة عشرة آلاف دولار أمريكي.
في 22 سبتمبر 2020، أعلنت شركة OpenAI أنها قامت بترخيص حصريًا لبعض تقنيات ما قبل AGI لشركة Microsoft. تماشيًا مع اتفاقية التأسيس، ينص موقع OpenAI على الويب على أن AGI، "نظام مستقل للغاية يتفوق على الأداء البشري في معظم المهام ذات القيمة الاقتصادية" "مستثنى من تراخيص الملكية الفكرية والشروط التجارية الأخرى مع Microsoft، والتي تنطبق فقط على تكنولوجيا ما قبل AGI. " ومع ذلك، فإن مجلس إدارة OpenAI "يحدد متى نصل إلى الذكاء الاصطناعي العام."
تطور OpenAI، من الذكاء الاصطناعي إلى الذكاء الاصطناعي العام< /h2>< p style="text-align: left;">لقد استعارت OpenAI بشكل كبير ممارسات DeepMind في عملها الأولي. على عكس لعبة الشطرنج، تنافست OpenAI على لعبة Dota 2، وهي لعبة فيديو إستراتيجية تحتوي على أجزاء متحركة أكثر من لعبة الشطرنج. وسرعان ما بنى فريق OpenAI نموذجًا جديدًا تغلب على الفريق بطل العالم، مما يدل على أن "التعلم المعزز باللعب الذاتي يمكن أن يحقق أداءً خارقًا في المهام الصعبة".
وفي الوقت نفسه، في Google، تعمل خوارزمية تسمى Transformer على حل العديد من المشكلات التي يواجهها التعلم العميق في فهم التسلسلات الطويلة من النص. هذه الخوارزمية هي مثال على "نموذج اللغة الكبير" الذي يترجم النص عن طريق تكوين روابط بين الكلمات في اللغة المصدر وتعيين هذه الروابط إلى اللغة الهدف.
واصل باحثو OpenAI هذا البحث وسرعان ما أنتجوا نتيجة مذهلة أخرى: باستخدام النصف الأول من بنية Transformer من Google، يمكن تدريب الشبكة العصبية العميقة مسبقًا على مجموعة كبيرة من النص وتستخدم لإنشاء نص جديد. في يناير 2018، أصدرت OpenAI الكود المصدري ونموذج التدريب لهذا المحول التوليدي المُدرب مسبقًا (GPT)، بالإضافة إلى ورقة تصف النموذج وقدراته بالتفصيل.
في عام 2019، أصدرت OpenAI نموذج الجيل الثاني، GPT-2. يأتي هذا الإصدار أيضًا مع ورقة تفصيلية توضح أنه على عكس النماذج السابقة، لا يحتاج هذا النموذج إلى التدريب على مهمة محددة. "عندما يتم تدريب نموذج لغة كبير على مجموعة بيانات كبيرة ومتنوعة بما فيه الكفاية، فإنه يمكن أن يؤدي أداءً جيدًا على العديد من المهام." أداء جيد عبر المجالات ومجموعات البيانات". أثبتت هذه النماذج أنها مختلفة تمامًا عن أنظمة الذكاء الاصطناعي السابقة. بدلاً من تدريب الأنظمة على أداء مهام محددة، يمكن ببساطة أن "يطلب منها" أداء مهام جديدة باللغة الطبيعية.
كما هو متوقع بموجب اتفاقية التأسيس، أصدرت OpenAI علنًا النسخة الكاملة من GPT-2. تجدر الإشارة إلى أن OpenAI قررت النشر على الرغم من أن "البشر وجدوا أن مخرجات GPT-2 مقنعة"، و"يمكن ضبط GPT-2 بدقة لإساءة الاستخدام"، و"اكتشاف (النص الناتج عن GPT) يمثل تحديًا". في ذلك الوقت، ذكرت OpenAI أنها تأمل أن يكون القيام بذلك "مفيدًا لمطوري النماذج القوية في المستقبل". يرافق الإصدار ورقة مفصلة شارك في تأليفها علماء OpenAI وعلماء اجتماعيون وتقنيون مستقلون، تشرح الفوائد العديدة لإصدار النماذج علنًا بدلاً من إبقائها مغلقة.
أثبت نشرهم أنه ذو فائدة حقيقية لمطوري النماذج المستقبلية القوية. ظهرت مجتمعات بأكملها لتعزيز وتوسيع النماذج التي أصدرتها OpenAI. وتمتد هذه المجتمعات لتشمل المصادر المفتوحة والجهود الشعبية والكيانات التجارية.
في عام 2020، أعلنت شركة OpenAI عن الإصدار الثالث من نموذجها، GPT-3. ويستخدم "175 مليار معلمة، أي 10 مرات أكثر من أي نموذج لغة سابق غير متفرق." أعلنت OpenAI مرة أخرى عن تطوير هذا النموذج من خلال نشر ورقة بحثية تصف تنفيذها الكامل ليتمكن الآخرون من البناء عليها.
في عام 2022، أخذ الباحثون في Google هذه النتائج وأظهروا تعديلًا صغيرًا يسمى مطالبات التفكير المتسلسلة التي يمكن أن تمكن "نماذج اللغة الكبيرة من أداء التفكير المعقد". توسع باحثون من جامعة طوكيو وجوجل بسرعة في نتائج جوجل وأظهروا أن GPT-3 الخاص بـ OpenAI يمكنه التفكير في مشكلة جديدة تمامًا بطريقة خطوة بخطوة، تمامًا مثل البشر، "فقط عن طريق إضافة "دعونا" قبل كل إجابة . نحن نفكر خطوة بخطوة'".
يصبح مسار الذكاء الاصطناعي مرئيًا. والجدول الزمني للوصول إلى هذه النقطة يتم ضغطه بشكل كبير.
في 14 مارس 2023، أصدرت OpenAI جيلًا جديدًا من نموذجها، GPT-4. لا يستطيع هذا الجيل التفكير فحسب، بل يمكنه التفكير بشكل أفضل من الإنسان العادي. حصل اختبار GPT-4 على نسبة 90 في المائة في اختبار المحامين الموحد، وفي نسبة 99 في تقييم التحدث في GRE، بل وحصل على نسبة 77 في المائة في اختبار الساقي المتقدم. ومن خلال المقاييس الموضوعية الخاصة بـ OpenAI، تمكن GPT-4 من إظهار ذكاء متفوق على الإنسان عبر مجموعة واسعة من المهام ذات القيمة الاقتصادية.
لم يمر هذا التطور دون أن يلاحظه أحد من قبل مجتمع البحث. وفي تحليل مفصل بعنوان "شرارة الذكاء الاصطناعي العام: تجارب مبكرة مع جي بي تي-4"، أشار باحثو مايكروسوفت إلى أن "جي بي تي-4 يمكنه حل مشاكل متعددة عبر الرياضيات والبرمجة والرؤية والطب والقانون وعلم النفس والمزيد. رواية وصعبة المهام في المجال دون الحاجة إلى أي مطالبات خاصة. علاوة على ذلك، في جميع هذه المهام، يؤدي GPT-4 أداءً قريبًا بشكل مدهش من المستوى البشري، وغالبًا ما يتجاوز بكثير النماذج السابقة مثل تلك المستندة إلى [GPT-3.5] ChatGPT."
< p style="text-align: left;">لقد قارنوا أداء GPT-4 بأداء نظام يعتمد على GPT-3 ووجدوا أنه "مقارنة بمخرجات GPT-4، لا توجد مقارنة." وفيما يتعلق بالمسائل الرياضية، أظهروا أن "GPT-4 أعطى حلولاً صحيحة وحججاً سليمة، في حين أن ChatGPT المبني على GPT-3 أنتج حلولاً خاطئة، مما يعكس تأثير الإنسان على عدم فهم مفهوم انقلاب الوظيفة". وفي مثال آخر، أظهروا أن "GPT-4 أعطى الحل الصحيح، بينما بدأ ChatGPT في إعادة ترتيب المصطلحات بلا هدف وانتهى الأمر بحل خاطئ."
علماء مايكروسوفت أنفسهم نعترف بأن GPT-4 "يحقق شكلاً من أشكال الذكاء العام" وأنه "بالنظر إلى اتساع وعمق قدرات GPT-4، نعتقد أنه يمكن اعتباره بشكل معقول إصدارًا مبكرًا (وإن كان لا يزال غير مكتمل) من نظام الذكاء الاصطناعي العام".
الانتهاكOpenAI اتفاقية التأسيس
< p style="text-align: left;">بعد الوصول إلى عتبة الذكاء الاصطناعي العام، وفقًا لاتفاقية التأسيس، كان من المفترض أن يقوموا بتطوير الذكاء الاصطناعي العام لصالح الإنسانية وليس لصالح أي شركة أو فرد يحقق الربح، ولكن حيث انحرف المتهمون جوهرياً عن مهمتهم، وخالفوا اتفاقية التأسيس. GPT-4 هو نموذج مغلق تمامًا. يظل التصميم الداخلي لـGPT-4 سريًا، ولم يتم إصدار أي تعليمات برمجية. ولم تصدر شركة OpenAI ورقة بحثية تصف أي جانب من جوانب تصميمها الداخلي، بل أصدرت فقط بيانات صحفية تروج لأدائها. التفاصيل الداخلية لـ GPT-4 معروفة فقط لشركة OpenAI وما يُعتقد أنها شركة Microsoft. ولذلك، فإن GPT-4 هو العكس تمامًا لـ "الذكاء الاصطناعي المفتوح". لقد تم إغلاقه لأسباب تتعلق بالملكية التجارية: تجني Microsoft الكثير من الأموال من بيع GPT-4 للجمهور، وهو ما لن يكون ممكنًا إذا جعلت OpenAI التكنولوجيا متاحة مجانًا للجمهور، كما تحتاج. وخلافاً لاتفاقية التأسيس، اختار المدعى عليهم استخدام GPT-4 ليس لصالح البشرية، ولكن كتقنية مملوكة لتعظيم أرباح أكبر الشركات في العالم. بالإضافة إلى ذلك، أصبح تطوير OpenAI بالكامل الآن محاطًا بالسرية، مما يترك للجمهور فقط شائعات ومقتطفات متفرقة من الاتصالات للتعرف على ما قد يتم إصداره بعد ذلك.
تفيد رويترز أن OpenAI تعمل على تطوير خوارزمية سرية تسمى Q*. في حين أن تفاصيل Q* غير واضحة، فقد ذكرت رويترز أن العديد من موظفي OpenAI كتبوا خطابًا يحذرون من قوة Q* المحتملة. يبدو أن Q* قد يكون الآن أو في المستقبل جزءًا من AGI أكثر وضوحًا وبروزًا تم تطويره بواسطة OpenAI. وباعتباره AGI، فإنه سيكون خارج نطاق ترخيص OpenAI مع Microsoft ويجب إتاحته لتحقيق المصلحة العامة على نطاق واسع.
بالنسبة لاتفاقية الترخيص مع Microsoft، يحدد مجلس إدارة OpenAI, Inc. ما إذا كانت OpenAI قد حققت الذكاء الاصطناعي العام (AGI)، بعد سلسلة صادمة من الأحداث الموضحة بمزيد من التفصيل أدناه، أُجبر غالبية أعضاء مجلس إدارة شركة OpenAI, Inc. على الاستقالة في 22 نوفمبر 2023، ويُعتقد أنه تم اختيار بدلائهم بواسطة Altman وMicrosoft.
في 17 نوفمبر 2023، قام مجلس إدارة شركة OpenAI, Inc. بإقالة ألتمان. وأعلنت شركة OpenAI في منشور على مدونتها أنه تم طرد ألتمان، "إن رحيله يأتي بعد عملية مراجعة مدروسة من قبل مجلس الإدارة، والتي خلصت إلى أنه لم يكن دائمًا صريحًا في اتصالاته مع مجلس الإدارة وأعاق أداء واجباته". لم يعد مجلس الإدارة يثق به لمواصلة قيادة OpenAI."
تمت إزالة بروكمان أيضًا من مجلس الإدارة ولكن تم إخباره بأنه سيحتفظ بدوره في OpenAI.
في ذلك الوقت، كان مجلس الإدارة يتألف من هيلين تونر، وآدم دانجيلو، وتاشا ماكولي، والدكتور سوتسكيفر، وبروكمان، وألتمان. بالإضافة إلى عملها في مجلس الإدارة، تعمل السيدة تونر كباحثة ومستشارة في مركز حوكمة الذكاء الاصطناعي (GovAI) ومديرة الإستراتيجية في مركز الأمن والتقنيات الناشئة بجامعة جورج تاون. السيدة ماكولي هي عالمة إدارية عليا في مؤسسة RAND، وهي منظمة غير ربحية متخصصة في قرارات السياسة العامة. وهي أيضًا مستشارة لـ GovAI. D’Angelo – العضو الوحيد المتبقي في مجلس الإدارة بعد عودة ألتمان – هو مدير تنفيذي ورجل أعمال في مجال التكنولوجيا.
تم اختيار مجلس إدارة شركة OpenAI, Inc. ليضم عددًا من الأكاديميين وخبراء السياسة العامة ذوي الخبرة العميقة في سياسة الذكاء الاصطناعي، ومعظمهم ليس لديهم أي خبرة في هذا المجال. الخبرة المالية في الشركة فوائد، وهذا مقصود. يضمن هذا الهيكل من أعضاء مجلس الإدارة غير المهتمين ماليًا والذين يتمتعون بسجلات قوية في الخدمة العامة أن يضع مجلس الإدارة المستفيد الأساسي من المنظمة غير الربحية - البشر - قبل النجاح المالي. تعمل هذه الحماية على تعزيز مهمة OpenAI, Inc. غير الهادفة للربح والاتفاق التأسيسي: إنشاء الذكاء الاصطناعي العام بشكل آمن الذي يفيد البشرية، بدلاً من المكاسب المالية لشركة هادفة للربح.
يُعتقد أن سبب طرد ألتمان يعود جزئيًا إلى اختراق OpenAI في تحقيق الذكاء الاصطناعي العام. في الواقع، تشير التقارير الإخبارية إلى وجود خلافات بين أعضاء مجلس إدارة OpenAI والمديرين التنفيذيين حول المخاوف الأمنية والتهديدات المحتملة التي قد يشكلها الجيل التالي من Q* من OpenAI.
انتشرت أخبار طرد ألتمان بسرعة. بعد أن أعلن مجلس الإدارة عن إقالة ألتمان، أعلن بروكمان أنه سيترك OpenAI مع ألتمان.
عندما علم ساتيا ناديلا، الرئيس التنفيذي لشركة مايكروسوفت، بطرد ألتمان، شعر بالغضب الشديد. ويعتقد ناديلا، وهو مساهم بنسبة 49% في الوحدة المربحة لشركة OpenAI، أنه كان ينبغي استشارة مايكروسوفت قبل إقالة ألتمان. ومع ذلك، في ذلك الوقت، بخلاف Altman، لم يكن لمجلس إدارة OpenAI, Inc. أي علاقات مع Microsoft ولم تكن لديه أي مسؤولية ائتمانية تجاه المستثمرين في القطاع الربحي. يُعتقد أن Altman هو جهة الاتصال الأساسية بين Microsoft وOpenAI, Inc.
دعا ناديلا ألتمان وبروكمان لقيادة مختبر أبحاث Microsoft AI الجديد الذي لن يكون مقيدًا بالمهمة الإنسانية لشركة OpenAI, Inc.. وأوضح ناديلا أن الموظفين الذين يغادرون OpenAI سيكونون موضع ترحيب للانضمام إلى مختبر مايكروسوفت الجديد بنفس الراتب.
مايكروسوفت مقتنعة بأنه من خلال حصتها الملكية الكبيرة في الوحدة المربحة لـ OpenAI، يمكنها عزل أبحاث OpenAI, Inc. تمامًا إذا توقفت الشركة عن الوجود . في الواقع، في مقابلة بعد وقت قصير من إقالة ألتمان، قال ناديلا: "نحن واثقون جدًا من قدراتنا. لدينا كل الملكية الفكرية وجميع الإمكانات. إذا اختفت OpenAI غدًا، فأنا لا أريد حقًا أن نفعل ذلك". "يشعر العميل بالقلق لأن لدينا كل الحقوق لمواصلة الابتكار. ليس فقط لتقديم المنتجات، ولكن لمواصلة ما نقوم به بالتعاون. لدينا الموهبة، ولدينا القدرة الحاسوبية، ولدينا البيانات، ولدينا كل شيء."
على الرغم من تصريحات Microsoft حول قدرتها على مواصلة العمل بدون OpenAI، إلا أن Microsoft لم تتخلى أبدًا عن ضمان عودة Altman إلى OpenAI, Inc. وهي خطة الرئيس التنفيذي. بعد أيام من إقالة ألتمان، تعرض مجلس إدارة شركة OpenAI, Inc. لضغوط من المحامين وكبار المساهمين، بما في ذلك مايكروسوفت، لإعادة ألتمان إلى منصبه.
تم استهداف السيدة تونر على وجه التحديد في جهودها لإعادة تأهيل ألتمان. وفي خضم هذه الجهود، أخبر محامٍ يمثل شركة OpenAI السيدة تونر أنه إذا فشلت شركة OpenAI بسبب طرد ألتمان، فقد تواجه هي ومجلس الإدارة اتهامات بخرق الواجب الائتماني تجاه المستثمرين.
ومع ذلك، فإن مجلس إدارة شركة OpenAI, Inc. لم يدين أبدًا بواجب ائتماني تجاه المستثمرين. يتم إخبار جميع المستثمرين الذين يستثمرون في القطاعات الربحية تقريبًا أن مسؤولية الشركة تجاه مهمتها لها الأسبقية على مسؤوليتها تجاه مستثمريها، وينص موقع OpenAI, Inc. بوضوح على أن لديها مسؤوليات ائتمانية تجاه البشر فقط.
قالت السيدة تونر، التي وصفت تصرفات المحامي بأنها تكتيك تخويف، إن استمرار ترحيل ألتمان سيتم في الواقع من خلال تعزيز سلامة الإنسان بدلاً من الربح. مهمة الشركة. ومع ذلك، لم يمنع أي من هذا المساهمين وألتمان من الضغط من أجل إعادته إلى منصبه.
بالإضافة إلى ذلك، تتمتع Microsoft بسلطة قسرية كبيرة على شركة OpenAI, Inc. ومجلس إدارتها. خلال فترة إقالة ألتمان، قال ناديلا عن علاقة مايكروسوفت بشركة OpenAI: "نحن هناك. نحن تحتهم، وفوقهم، ومن حولهم. نحن نقوم بتحسين النواة، ونبني الأدوات، ونبني البنية التحتية.. لذا هذا هو لماذا أعتقد أن الكثير من محللي الصناعة يقولون: "أوه، هذا حقًا مشروع مشترك بين Microsoft وOpenAI". في الواقع، كما قلت، نحن مكتفون ذاتيًا جدًا في كل هذا. "
علاوة على ذلك، في وقت عمليات الإقالة، لم تدفع Microsoft سوى جزء صغير من الاستثمار البالغ 10 مليارات دولار الذي التزمت به في OpenAI، مما أعطى مجالس إدارة Microsoft "المستقلة" غير الربحية اهتمامًا جديًا تأثير. علاوة على ذلك، إذا سحبت مايكروسوفت أنظمة الحوسبة السحابية الخاصة بها - والتي تعتمد عليها شركة OpenAI - فلن تتمكن الشركة من العمل.
عند عودة السيد ألتمان، يُعتقد أنه اختار بعناية مجلس إدارة جديدًا يفتقر إلى الخبرة الفنية المماثلة أو الخبرة في مجال الذكاء الاصطناعي مثل مجلس الإدارة السابق الذي تم تصميمه من أجل أي خلفية موضوعية في الحكم. السيد دانجيلو، الرئيس التنفيذي للتكنولوجيا ورجل الأعمال، هو عضو مجلس الإدارة السابق الوحيد المتبقي بعد عودة السيد ألتمان. يضم مجلس الإدارة الجديد أعضاء يتمتعون بخبرة أكبر في الأعمال أو السياسة التي تركز على الربح مقارنة بأخلاقيات الذكاء الاصطناعي والحوكمة. ويقال أيضًا أنهم "معجبون كبيرون بألتمان". ومن بين أعضاء مجلس الإدارة الجدد بريت تايلور ولاري سمرز. السيد تايلور ليس غريبًا على وادي السيليكون وقد شارك بشكل كبير في مجموعة متنوعة من الشركات التي تهدف إلى الربح في منطقة الخليج. في 14 فبراير 2024، أطلق السيد تايلور والمدير التنفيذي السابق لشركة Google كلاي بافور شركة ناشئة تركز على بناء روبوتات الدردشة المدعمة بالذكاء الاصطناعي للمؤسسات. الدكتور سامرز هو خبير اقتصادي ويُعتقد أنه لم يكن لديه أي خبرة في العمل في الشركات القائمة على الذكاء الاصطناعي قبل نوفمبر 2023. وحصلت مايكروسوفت أيضًا على مقعد مراقب في مجلس إدارتها، مما سمح لها بمراقبة بقرة حلوبها غير الربحية ظاهريًا.
مع إعادة تعيين السيد ألتمان وإعادة تنظيم مجلس الإدارة، تم تصميم الهيكل المؤسسي لـ OpenAI - في الأصل ليكون بين قسم غير ربحي، قسم يهدف إلى الربح، ومجلس إدارة، ورئيس تنفيذي. لقد انهار نظام التوازن بين عشية وضحاها لضمان إمكانية تنفيذ المهمة غير الربحية. تم استبدال الهيكل غير الربحي لشركة OpenAI, Inc. الذي تم تصميمه بعناية سابقًا برئيس تنفيذي مدفوع بالربح بحت ومجلس إدارة يتمتع بخبرة فنية أقل في السياسة العامة للذكاء الاصطناعي العام والذكاء الاصطناعي. يحتفظ مجلس الإدارة الآن بمقعد مراقب لشركة Microsoft. ومع عملية إعادة التنظيم هذه، تتخلى شركة OpenAI, Inc. عن مهمتها غير الربحية المتمثلة في تطوير الذكاء الاصطناعي العام لتحقيق منفعة إنسانية واسعة النطاق، وبالتالي إبعادها عن التحول إلى شركة عملاقة تهدف إلى الربح حيث تتركز قوة هائلة فيها بشكل غير مبرر.
تعد الخبرة الفنية لمجلس إدارة شركة OpenAI, Inc. في مجال الذكاء الاصطناعي وحيادها والتزامها بمهمة OpenAI, Inc. غير الربحية ذات أهمية خاصة لمهمة OpenAI, Inc.. لأن مجلس الإدارة هو الذي يحدد ما إذا كانت OpenAI قد حققت الذكاء الاصطناعي العام لأغراض اتفاقية ترخيص Microsoft. وهذا يعني أنه سيتم تكليف مجلس الإدارة بتحديد ما إذا كانت تقنية OpenAI الأقوى والأكثر تقدمًا مستبعدة بالفعل من الترخيص الحصري لشركة Microsoft. نظرًا لاهتمام Microsoft المالي الضخم بإبقاء الباب مغلقًا أمام الجمهور، فإن مجلس إدارة OpenAI, Inc. الجديد، كما هو مسيطر ومتضارب ومتوافق، سيكون لديه كل الأسباب لعدم اكتشاف أن OpenAI قد وصلت إلى الذكاء الاصطناعي العام (AGI) . وبدلا من ذلك، كانت إنجازات الذكاء الاصطناعي العام التي تقدمها شركة OpenAI، مثل كلمة "غدا" في فيلم "Annie"، دائما في المستقبل البعيد، مما يضمن حصول مايكروسوفت على ترخيص لأحدث تقنيات OpenAI في حين تم استبعاد الجمهور، وهو العكس تماما لاتفاقية التأسيس.
يمكن أن يكون لإجراءات OpenAI تأثير كبير على وادي السيليكون، وإذا سمح لها بالوجود، يمكن أن تمثل نقلة نوعية للشركات الناشئة في مجال التكنولوجيا. من المهم التفكير في ما حدث هنا: قامت شركة ناشئة غير ربحية بجمع عشرات الملايين من الدولارات من التبرعات بهدف صريح هو تطوير تقنية الذكاء الاصطناعي العام (AGI) من أجل الصالح العام، وقبل وقت قصير من تحقيق علامة فارقة للغرض الذي تم إنشاء الشركة من أجله، أصبحت الشركة شريكًا مربحًا في حلقة مغلقة لأكبر الشركات في العالم، وبالتالي استفادت المدعى عليهم شخصيًا. إذا نجح نموذج الأعمال هذا، فقد يعيد تعريف الطريقة التي يمارس بها رأس المال الاستثماري بالكامل في كاليفورنيا وأماكن أخرى. فبدلاً من البدء ككيان يسعى إلى الربح، يعتزم المستثمرون الأذكياء إنشاء منظمة غير ربحية، واستخدام مساهمات ما قبل الضريبة لتمويل البحث والتطوير، ثم نقل أصول الملكية الفكرية الناتجة بمجرد تطوير التكنولوجيا الخاصة بهم وإثبات فعاليتها. الانتقال إلى مشروع جديد مربح كوسيلة لإثراء أنفسهم وشركاء الأعمال الذين يزيدون أرباحهم. لا ينبغي أن تكون هذه هي الطريقة التي يعمل بها القانون في كاليفورنيا أو هذا البلد، ولا ينبغي أن تكون هذه هي المحكمة الأولى التي تقول خلاف ذلك.
لفهم سبب أهمية ذلك بشكل أكبر، إذا نجح نموذج العمل الجديد لـ OpenAI، فمقابل كل دولار "يستثمره" المستثمرون في المنظمة غير الربحية، سيحصل المستثمرون على حوالي 50 سنتًا في العائدات من الولاية والحكومة الفيدرالية في شكل ضرائب دخل مخفضة، وبالتالي فإن صافي تكلفتها لكل دولار مستثمر هو 50 سنتًا فقط. ومع ذلك، مع نموذج الأعمال الجديد لشركة OpenAI، فإنهم يحصلون على نفس الجانب الإيجابي "المربح" مثل أولئك الذين يستثمرون في الشركات المربحة بالطريقة التقليدية، وبالتالي لا يحصلون على إعفاء ضريبي فوري، بتمويل من الحكومة وفي نهاية المطاف من الجمهور. من منظور استثماري، فإن التنافس ضد الكيانات التي تتبنى نموذج أعمال OpenAI الجديد يشبه لعب لعبة كرة السلة حيث يسجل الفريق الآخر ضعف عدد السلات التي تسجلها أنت. إذا وافقت هذه المحكمة على إجراءات OpenAI هنا، فإن أي شركة ناشئة تأمل في البقاء قادرة على المنافسة في وادي السيليكون سيُطلب منها بشكل أساسي اتباع استراتيجية OpenAI هذه، وستصبح إجراء تشغيل قياسيًا للشركات الناشئة والمنظمات غير الربحية القانونية وعائدات الضرائب الحكومية، مما يؤدي في النهاية إلى الإضرار بالشركة. الناس في ولاية كاليفورنيا وخارجها. ومن الجدير بالذكر أن وحدة OpenAI المربحة قد بلغت قيمتها مؤخرًا ما يقرب من 80 مليار دولار.
من نوفمبر إلى الوقت الحاضر: OpenAI من Altman
الجمهور لا يزال لا شيء معروف عما كشفت عنه "عملية المراجعة التداولية" التي أجراها مجلس الإدارة والتي أدت إلى طرد ألتمان في البداية. ومع ذلك، هناك شيء واحد واضح للسيد ماسك والجمهور بشكل عام: لقد تخلت شركة OpenAI عن مهمتها غير الربحية "غير القابلة للإلغاء" لصالح الربح. لقد علق العديد من القادة والمفكرين علناً على المفارقة والمأساة المتمثلة في تحول OpenAI إلى "ذكاء اصطناعي مغلق يهدف إلى الربح".
على سبيل المثال، في 29 نوفمبر 2023، نشر الاقتصاديون في معهد ماساتشوستس للتكنولوجيا مقال رأي في صحيفة لوس أنجلوس تايمز يعبرون فيه عن مخاوفهم الجديدة بشأن OpenAI. مخاوف بشأن الأوامر المدفوعة بالربح . على حد تعبيرهم، "لقد أصبح الاضطراب والنمو غير المنضبط هو دين صناعة التكنولوجيا، وكان ألتمان أحد كبار قساوستها الأكثر ولاءً". ويؤكد الاقتصاديون أن مجلس الإدارة الجديد من المرجح أن يسمح لألتمان بالنمو بأسرع ما يمكن. OpenAI، بغض النظر عن مدى خطورة التكلفة الاجتماعية.
كتب رئيس منظمة Public Citizen، وهي منظمة للحقوق المدنية، رسالة مفتوحة إلى المدعي العام في كاليفورنيا روب بونتا في وقت سابق من هذا العام، مما أثار تساؤلات حول ما إذا كانت شركة OpenAI التابعة المربحة هناك كانت المخاوف من فرض ضوابط غير مناسبة على المنظمات غير الربحية، أو أن غرض المنظمات غير الربحية تحول نحو الربح في ظل ألتمان ومايكروسوفت. واقترحت الرسالة أنه إذا تخلت منظمة غير ربحية عن مهمتها الأصلية، فيجب حلها ونقل أصولها إلى مؤسسة خيرية أخرى.
وجد تحقيق أجرته WIRED في يناير 2024 أن OpenAI أغلقت مؤخرًا أيضًا وصول الجمهور إلى "الملفات المهمة" التي كانت متاحة سابقًا. تماشيًا مع التزام OpenAI الأصلي بالشفافية، ذكرت إيداعات OpenAI لمصلحة الضرائب منذ بدايتها أنه يمكن لأي فرد من الجمهور الاطلاع على نسخة من وثائق الإدارة والبيانات المالية وقواعد تضارب المصالح. ومع ذلك، عندما طلبت WIRED الوثائق، قالت OpenAI إنها غيرت سياستها. لذلك، في حين أن OpenAI طالما روجت لالتزامها بالشفافية، فإن المعلومات التي تكشف عن أحداث نوفمبر 2023 لم تكن متاحة للجمهور.
يمكن أن يمنح الوصول إلى ملفات OpenAI الجمهور إحساسًا بما إذا كانت قد غيرت هيكل إدارتها لإرضاء Microsoft والمساهمين الآخرين. على أقل تقدير، يجب إجراء تغييرات لاستيعاب مقعد مايكروسوفت في مجلس الإدارة، والآن يجري ألتمان مناقشات مع مستثمرين في الشرق الأوسط لجمع ما يصل إلى 7 تريليون دولار من التمويل بهدف تطوير شبكة عالمية من مصانع تصنيع شرائح الذكاء الاصطناعي. إذا كان مبلغ العشرة مليارات دولار الذي حصلت عليه مايكروسوفت كافياً لمنحها مقعداً في مجلس الإدارة، فتخيل حجم النفوذ الذي يمكن أن توفره هذه الاستثمارات المحتملة الجديدة للمستثمرين. وهذا أمر مثير للقلق بشكل خاص عندما يكون أحد المانحين المحتملين هو مستشار الأمن القومي لدولة الإمارات العربية المتحدة، ويشعر المسؤولون الأمريكيون بالقلق بشأن علاقات الإمارات العربية المتحدة مع الصين. بالإضافة إلى ذلك، نُقل عن ألتمان مناقشة إمكانية جعل دولة الإمارات العربية المتحدة "صندوقًا تنظيميًا" حيث يمكن اختبار تكنولوجيا الذكاء الاصطناعي.
بالإضافة إلى ذلك، سيكون الوصول إلى سياسة تضارب المصالح في OpenAI أمرًا بالغ الأهمية للكشف عن قدرة مجلس الإدارة على التحكم في استخدام Altman لـ OpenAI لتعزيز مصالحه المالية الشخصية، وهو الأمر الذي حتى الآن يبدو أنه كان غير مقيد. على سبيل المثال، في عام 2019، عندما كان ألتمان رئيسًا تنفيذيًا، وقعت شركة OpenAI خطاب نوايا لشراء رقائق بقيمة 51 مليون دولار من شركة ناشئة استثمر فيها ألتمان بكثافة.
بينما كانت شركة OpenAI, Inc. رائدة في تطوير الذكاء الاصطناعي العام الآمن والمسؤول استنادًا إلى التواصل المفتوح مع الجمهور، فقد أغلقت الآن الباب أمام ذكاءها العام. يتم جلب أكبر المستثمرين في الشركات التابعة الهادفة للربح إلى مجلس الإدارة، الذي يتحمل المسؤولية الائتمانية الوحيدة للإنسانية، ويستمرون في التحرك سرًا نحو مستقبل يركز على الربح مع عواقب وخيمة محتملة على البشرية.
شارك ماسك في تأسيس وتمويل شركة OpenAI, Inc.، جنبًا إلى جنب مع ألتمان وبروكمان، مقابل الاعتماد على اتفاقية تأسيسية لضمان أن الذكاء الاصطناعي العام سيفيد البشر بدلاً من ذلك. من شركة ربحية. ومع تطور الأحداث في عام 2023، تم تحويل مساهماته في شركة OpenAI, Inc. لصالح المدعى عليهم وأكبر شركة في العالم. هذه خيانة واضحة للاتفاقية التأسيسية، وقلب تلك الاتفاقية رأسًا على عقب وتشويه مهمة شركة OpenAI, Inc. تخيل التبرع لمنظمة غير ربحية تنص على أن مهمتها هي حماية غابات الأمازون المطيرة، ولكن بعد ذلك تقوم المنظمة غير الربحية بإنشاء شركة أمازون مربحة لقطع الأشجار تستخدم نتائج التبرع لإزالة الغابات المطيرة. هذه هي قصة شركة OpenAI, Inc. ص>