شركة OpenAI تخشى أن يطور الناس علاقات غير صحية مع الذكاء الاصطناعي
في شهر يوليو، بدأت شركة OpenAI في إطلاق واجهة صوتية تشبه الصوت البشري بشكل مذهل لبرنامج ChatGPT.
في تحليل السلامة الأخير وقد أقرت الشركة بإمكانية استخدام هذا الصوت الواقعي في تعزيز الارتباط العاطفي مع روبوت المحادثة بين بعض المستخدمين.
أعربت شركة OpenAI عن مخاوفها من أن الأفراد قد يفضلون التفاعل مع الذكاء الاصطناعي بسبب وجوده المستمر وسلوكه غير الحكمي.
هؤلاء تم تفصيل المخاوف في "بطاقة النظام" الخاصة بـ GPT-4o، وهي وثيقة فنية والتي تحدد المخاطر المتصورة المرتبطة بالنموذج، إلى جانب معلومات حول اختبارات السلامة وجهود الشركة للتخفيف من المخاطر المحتملة.
يتطرق قسم بعنوان "التجسيد والاعتماد العاطفي" إلى القضايا التي تنشأ عندما ينسب المستخدمون خصائص بشرية إلى الذكاء الاصطناعي، وهي ظاهرة قد تشتد من خلال ميزة الصوت الشبيه بالإنسان.
أثناء تدريبات العمل الجماعي الأحمر لـ GPT-4o، لاحظ باحثو OpenAI حالات أشار فيها كلام المستخدمين إلى ارتباط عاطفي بالنموذج، مثل استخدام عبارات مثل "هذا هو يومنا الأخير معًا".
تشير شركة OpenAI إلى أن التجسيد قد يؤدي إلى وضع المستخدمين ثقة مفرطة في مخرجات الذكاء الاصطناعي، حتى عندما تولد معلومات غير صحيحة، وبمرور الوقت، قد يؤثر هذا على علاقات المستخدمين مع البشر الآخرين.
وفقًا لـ OpenAI:
"قد ينشئ المستخدمون علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل من حاجتهم إلى التفاعل البشري - مما قد يفيد الأفراد الوحيدين ولكن قد يؤثر على العلاقات الصحية. قد يؤثر التفاعل الموسع مع النموذج على المعايير الاجتماعية. على سبيل المثال، نماذجنا محترمة، مما يسمح للمستخدمين بالمقاطعة و"أخذ الميكروفون" في أي وقت، وهو أمر متوقع من الذكاء الاصطناعي، ولكنه سيكون مناهضًا للمعايير في التفاعلات البشرية."
ال بطاقة النظام يتناول هذا التقرير مجموعة واسعة من المخاطر، بما في ذلك إمكانية أن يعمل GPT-4o على تعزيز التحيزات المجتمعية، ونشر المعلومات المضللة، والمساهمة في إنشاء أسلحة كيميائية أو بيولوجية.
ويناقش أيضًا الاختبارات التي أجريت للتأكد من أن نماذج الذكاء الاصطناعي لا تحاول تجاوز ضوابطها، أو خداع الأفراد، أو ابتكار خطط ضارة.
في جوهره، ينصب اهتمام OpenAI على أن الناس قد يفضلون التفاعل مع الذكاء الاصطناعي بسبب طبيعته السلبية والموجودة دائمًا.
وهذا الاحتمال ليس مفاجئًا، نظرًا لمهمة الشركة المعلنة في تطوير الذكاء الاصطناعي العام وميلها إلى وصف منتجاتها من حيث التكافؤ البشري.
ومع ذلك، فإن أحد الآثار الجانبية الرئيسية لهذا النهج هو تجسيد الصفات البشرية - نسبة السمات البشرية إلى كيانات غير بشرية.
وأكد خواكين كوينونيرو كانديلا، رئيس قسم الاستعداد في شركة OpenAI، أن وضع الصوت يمكن أن يصبح واجهة فعالة بشكل خاص.
وأشار أيضًا إلى أن التأثيرات العاطفية التي لوحظت مع GPT-4o يمكن أن يكون لها جوانب إيجابية، مثل مساعدة الأشخاص الذين يشعرون بالوحدة أو يحتاجون إلى ممارسة التفاعلات الاجتماعية.
وأضاف كانديلا أن الشركة سوف تدرس عن كثب التجسيد والصلات العاطفية، بما في ذلك مراقبة كيفية تفاعل مختبري النسخة التجريبية مع ChatGPT.
وأشار إلى:
"ليس لدينا نتائج لمشاركتها في الوقت الحالي، ولكن هذا الأمر مدرج على قائمة مخاوفنا."
وضع الصوت في ChatGPT واقعي للغاية
أعربت شركة OpenAI، الشركة المصنعة لبرنامج ChatGPT، عن مخاوفها بشأن إمكانية تطوير المستخدمين لاعتماد عاطفي على وضع الصوت الواقعي للغاية الذي سيطرحه برنامج الدردشة الآلي.
يتيح وضع ChatGPT-4o، الذي يخضع حاليًا لتحليل السلامة قبل إصداره، للمستخدمين التحدث مع المساعد الذكي بطريقة تحاكي عن كثب التفاعلات مع الإنسان.
ورغم أن هذه الميزة قد توفر الراحة للعديد من المستخدمين، إلا أنها تنطوي أيضا على مخاطر الاعتماد العاطفي و"الثقة غير المحسوبة بشكل متزايد" في نموذج الذكاء الاصطناعي، وهو الخطر الذي يمكن تضخيمه بسبب جودة الصوت التي تشبه الصوت البشري بشكل ملحوظ.
يتميز هذا الصوت أيضًا بقدرته على مراعاة مشاعر المستخدم استنادًا إلى نبرة صوته.
النتائج من مراجعة السلامة سلطت الضوء على المخاوف بشأن اللغة التي تشير إلى وجود اتصال بين المستخدم البشري والذكاء الاصطناعي:
"ورغم أن هذه الحالات تبدو حميدة، إلا أنها تشير إلى الحاجة إلى مواصلة التحقيق في كيفية ظهور هذه التأثيرات على مدى فترات أطول من الزمن."
ال مراجعة وحذر أيضًا من أن الاعتماد على الذكاء الاصطناعي قد يؤثر على علاقات المستخدمين مع الآخرين:
"قد يؤدي التفاعل الاجتماعي الشبيه بالتفاعل البشري باستخدام نموذج الذكاء الاصطناعي إلى إحداث تأثيرات خارجية تؤثر على التفاعلات بين البشر."
وعلاوة على ذلك، أشارت إلى إمكانية الإفراط في الاعتماد والتبعية:
"إن القدرة على إكمال المهام للمستخدم، مع تخزين وتذكر التفاصيل الرئيسية واستخدامها في المحادثة، تخلق تجربة منتج مقنعة وإمكانية الإفراط في الاعتماد والاعتمادية."
وأشار فريق الدراسة إلى أنه سيتم إجراء المزيد من الأبحاث حول إمكانية الاعتماد العاطفي على النسخة الصوتية من ChatGPT.
حظيت هذه الميزة باهتمام كبير في وقت سابق من هذا الصيف بسبب التشابه المذهل بين الصوت وصوت الممثلة سكارليت جوهانسون.
ورفعت جوهانسون، التي جسدت شخصية الذكاء الاصطناعي الذي وقع مستخدمه في حبه في فيلم "Her"، دعوى قضائية.
وعلى الرغم من تشابه الصوت مع صوت جوهانسون، إلا أن الرئيس التنفيذي لشركة OpenAI، سام ألتمان، أكد أن صوتها لم يتم استنساخه.
أطراف ثالثة تتدخل
لا تعد OpenAI الكيان الوحيد الذي يعترف بالمخاطر المرتبطة بمساعدي الذكاء الاصطناعي الذين يحاكيون التفاعل البشري.
في شهر أبريل،نشرت شركة Google DeepMind ورقة بحثية شاملة الذي يستكشف التحديات الأخلاقية المحتملة التي يفرضها مساعدو الذكاء الاصطناعي الأكثر تقدمًا.
وأوضح إيسون غابرييل، أحد علماء الأبحاث في الشركة والمؤلف المشارك في البحث، أن كفاءة برامج المحادثة الآلية في استخدام اللغة "تخلق هذا الانطباع بالحميمية الحقيقية".
كما أشار إلى أنه وجد واجهة صوتية تجريبية للذكاء الاصطناعي الخاص بشركة Google DeepMind جذابة بشكل خاص.
وقال عن واجهات الصوت بشكل عام:
"هناك كل هذه الأسئلة حول التشابك العاطفي."
وقد تكون هذه الارتباطات العاطفية أكثر انتشارا مما يتوقعه الكثيرون.
أبلغ مستخدمو برامج الدردشة الآلية مثل Character AI وReplika عن تعرضهم لتوترات معادية للمجتمع بسبب عادات الدردشة الخاصة بهم.
أظهر مقطع فيديو حديث على TikTok حصد ما يقرب من مليون مشاهدة مستخدمًا بدا منغمسًا للغاية في Character AI لدرجة أنه استخدم التطبيق أثناء مشاهدة فيلم في المسرح.
ذكر بعض المعلقين أنهم لن يستخدموا برنامج المحادثة الآلي إلا في خصوصية بسبب الطبيعة الحميمة لتفاعلاتهم، حيث صرح أحد المستخدمين:
"لن أكون موجودًا على [شخصية الذكاء الاصطناعي] أبدًا إلا إذا كنت في غرفتي."
بالإضافة إلى ذلك، أشاد خبراء خارجيون بشركة OpenAI لشفافيتها، لكنهم أشاروا إلى أن هناك مجالًا للتحسين.
وأشارت لوسي إيمي كافي، باحثة السياسات التطبيقية في Hugging Face - وهي شركة تستضيف أدوات الذكاء الاصطناعي - إلى أن بطاقة نظام OpenAI لـ GPT-4o تفتقر إلى تفاصيل واسعة النطاق فيما يتعلق ببيانات تدريب النموذج وملكية تلك البيانات.
القهوة أعرب:
"إن مسألة الموافقة على إنشاء مثل هذه المجموعة الضخمة من البيانات التي تشمل العديد من الوسائط، بما في ذلك النص والصورة والكلام، تحتاج إلى معالجة."
وأشار آخرون إلى أن المخاطر قد تتطور مع استخدام هذه الأدوات في سيناريوهات العالم الحقيقي.
وأشار نيل تومسون، أستاذ في معهد ماساتشوستس للتكنولوجيا يدرس تقييم مخاطر الذكاء الاصطناعي، إلى:
"إن المراجعة الداخلية يجب أن تكون الخطوة الأولى لضمان سلامة الذكاء الاصطناعي. فالكثير من المخاطر لا تظهر إلا عند استخدام الذكاء الاصطناعي في العالم الحقيقي. ومن المهم أن يتم تصنيف هذه المخاطر الأخرى وتقييمها مع ظهور نماذج جديدة."
العلامات الحمراء في الذكاء الاصطناعي وسام ألتمان
أثار غاري ماركوس، العالم الشهير ورجل الأعمال والمؤلف الأكثر مبيعًا والذي أدلى بشهادته إلى جانب سام ألتمان أمام مجلس الشيوخ الأمريكي بشأن موضوع سلامة الذكاء الاصطناعي، مخاوف بشأن المخاطر التي يفرضها الذكاء الاصطناعي وشخصية ألتمان.
من اليسار إلى اليمين: جاري ماركوس وسام ألتمان يظهران أمام اجتماع اللجنة الفرعية القضائية بمجلس الشيوخ بشأن الرقابة على الذكاء الاصطناعي.
خلال جلسة الاستماع في مجلس الشيوخ، لاحظ ماركوس أن ألتمان صور نفسه على أنه أكثر إيثارًا مما هو عليه في الحقيقة، وهي الشخصية التي تقبلها أعضاء مجلس الشيوخ على الفور.
وعندما سُئل عما إذا كان يكسب الكثير من المال، كان ألتمان مراوغًا وأجاب:
"لا أكسب أي أموال... أحصل على أجر كافٍ للتأمين الصحي. ليس لدي أي أسهم في OpenAI. أنا أفعل هذا لأنني أحبه."
ومع ذلك، أشار ماركوس إلى أن رواية ألتمان لم تكن صادقة تماما.
وفي حين ادعى ألتمان أنه لا يمتلك أي أسهم في OpenAI، إلا أنه كان يمتلك أسهمًا في شركة Y Combinator، التي كانت بدورها تمتلك أسهمًا في OpenAI، مما منح ألتمان مصلحة مالية غير مباشرة في الشركة - وهي حقيقة تم الكشف عنها على موقع OpenAI الإلكتروني.
وإذا كانت هذه الحصة غير المباشرة تمثل 0.1% فقط من قيمة الشركة، فقد تصل قيمتها إلى ما يقرب من 100 مليون دولار.
وكان هذا الإغفال بمثابة إشارة تحذيرية.
وعندما عادت هذه القضية إلى الواجهة، أتيحت لألتمان الفرصة لتصحيح السجل، لكنه اختار عدم القيام بذلك، مما أدى إلى ترسيخ أسطورة إيثاره.
وفي الأشهر الأخيرة، تحولت الشكوك حول صدق ألتمان من اعتبارها هرطقة إلى وجهة نظر مقبولة على نطاق واسع، وفقا لماركوس.
لقد ألف ماركوس نفسه مقالاً بعنوان "دليل سام ألتمان"، يحلل فيه كيف نجح ألتمان في خداع الكثيرين لفترة طويلة من خلال مزيج من المبالغة والتواضع المصطنع.
وفي الوقت نفسه، دأبت شركة OpenAI على التأكيد على أهمية تطوير التدابير الخاصة بسلامة الذكاء الاصطناعي، إلا أن العديد من الموظفين الرئيسيين المشاركين في مبادرات السلامة تركوا الشركة مؤخرًا، زاعمين أن الوعود لم يتم الوفاء بها.
إن التفاعلات بين الإنسان والذكاء الاصطناعي هي في نهاية المطاف تفاعلات اصطناعية
إن مدى التفاعلات بين الإنسان والذكاء الاصطناعي يتوقف على اعتمادنا على تكنولوجيا الذكاء الاصطناعي.
قد يطور المستخدمون علاقات اجتماعية مع الذكاء الاصطناعي، مما قد يقلل من رغبتهم في التفاعل البشري - مما قد يوفر العزاء للأفراد المعزولين ولكن من المحتمل أيضًا أن يؤثر على جودة العلاقات الإنسانية.
وقد يؤدي التفاعل المطول مع نماذج الذكاء الاصطناعي أيضًا إلى تشكيل المعايير الاجتماعية.
وهذا يثير سؤالا مقنعا: هل الذكاء الاصطناعي مجرد أداة لتحسين حياتنا، أم أننا سنصبح معتمدين عليه إلى الحد الذي نصبح فيه عاجزين عن فعل أي شيء بدون وجوده؟