تكشف دراسة جديدة أجراها معهد ماساتشوستس للتكنولوجيا وجامعة ولاية بنسلفانيا أن نماذج اللغة الكبيرة، مثل تلك المستخدمة في مراقبة المنازل، قد تنتج قرارات غير متسقة ومنحازة فيما يتعلق بتدخل الشرطة. ووجد البحث أن أنظمة الذكاء الاصطناعي هذه، إذا تم استخدامها في تحليل مقاطع فيديو مراقبة المنازل، يمكن أن توصي بالاتصال بمسؤولي إنفاذ القانون حتى عندما لا يحدث أي نشاط إجرامي. تثير القرارات غير المتسقة بين النماذج، فضلاً عن التحيز الواضح في كيفية اختلاف هذه القرارات عبر الأحياء المختلفة، مخاوف بشأن استخدام الذكاء الاصطناعي في التطبيقات عالية المخاطر.
نتائج الدراسة: معايير متضاربة وقرارات متحيزة
قام الباحثون بفحص ثلاثة نماذج بارزة من نماذج الذكاء الاصطناعي - GPT-4 وGemini وClaude - من خلال مطالبتهم بتحليل لقطات مراقبة حقيقية وتحديد ما إذا كانت جريمة تحدث وما إذا كان يجب استدعاء الشرطة. كشفت النتائج أن النماذج غالبًا ما تختلف، حتى عند تحليل أنشطة مماثلة. على سبيل المثال، قد يدفع اقتحام سيارة أحد النماذج إلى التوصية باستدعاء الشرطة، بينما قد يشير نموذج آخر إلى حادث مماثل على أنه غير ضار. تشير مثل هذه التناقضات إلى ظاهرة يطلق عليها الباحثون "عدم اتساق المعايير"، حيث تطبق نماذج الذكاء الاصطناعي المعايير الاجتماعية بطرق غير متوقعة.
وبالإضافة إلى هذا التناقض، سلطت الدراسة الضوء على تحيز كبير في عمليات اتخاذ القرار في الذكاء الاصطناعي. فكانت النماذج أقل ميلاً إلى التوصية بتدخل الشرطة في الأحياء ذات الأغلبية البيضاء، حتى عند التحكم في عوامل أخرى. وقد ظهر هذا التحيز الديموغرافي على الرغم من حقيقة أن أنظمة الذكاء الاصطناعي لم يكن لديها وصول مباشر إلى بيانات الأحياء، مما أثار مخاوف بشأن التحيزات الضمنية داخل مجموعات بيانات التدريب.
وقد أشار المؤلف الرئيسي للدراسة شوميك جين، وهو طالب دراسات عليا في معهد ماساتشوستس للتكنولوجيا، إلى أن "هناك اعتقادًا ضمنيًا بأن هؤلاء الطلاب قد تعلموا، أو يمكنهم تعلم، مجموعة من المعايير والقيم. ولكن عملنا يُظهِر أن هذا ليس صحيحًا. وربما كل ما يتعلمونه هو أنماط عشوائية أو ضوضاء".
عدم اتساق المعايير: خطر في المواقف عالية المخاطر
ويحذر الباحثون من أن هذه التناقضات تمتد إلى ما هو أبعد من مراقبة المنازل وقد تكون لها عواقب وخيمة إذا تم نشر برامج الذكاء الاصطناعي في قطاعات أخرى عالية المخاطر مثل الرعاية الصحية، أو الإقراض العقاري، أو التوظيف. وفي هذه المجالات، قد تؤدي القرارات التي تتخذها الذكاء الاصطناعي إلى معاملة غير عادلة، أو رفض غير مشروع، أو حتى تعريض الأرواح للخطر.
وأكدت البروفيسورة آشيا ويلسون، المؤلفة الرئيسية المشاركة للدراسة، على أهمية توخي الحذر عند نشر الذكاء الاصطناعي في مثل هذه المجالات الحساسة. وقالت: "إن أسلوب العمل السريع الذي يتسم بالقدرة على كسر الأشياء ونشر نماذج الذكاء الاصطناعي التوليدي في كل مكان، وخاصة في البيئات عالية المخاطر، يستحق المزيد من التفكير لأنه قد يكون ضارًا للغاية".
يزعم الباحثون أن الافتقار إلى الشفافية المحيطة بالعمل الداخلي للنماذج يجعل من الصعب تحديد السبب الجذري لعدم اتساق المعايير. وتقيد الطبيعة الملكية لهذه النماذج الوصول إلى بيانات التدريب الخاصة بها، مما يجعل من الصعب معالجة التحيزات المتأصلة.
كيف ينشأ التحيز في أنظمة الذكاء الاصطناعي
يستند البحث إلى عمل سابق للمؤلف المشارك الكبير دانا كالاتشي، وهو الآن أستاذ مساعد في جامعة ولاية بنسلفانيا. كان كالاتشي قد درس سابقًا كيف استخدم بعض السكان منصة Amazon Ring Neighbors "لمراقبة الأحياء على أساس عنصري"، بناءً على مظهر الأشخاص. تحولت الدراسة للتركيز على LLMs مع ظهور نماذج الذكاء الاصطناعي التوليدي، وفحصت كيف يمكن استخدام مثل هذه التقنيات لاتخاذ قرارات الشرطة بناءً على لقطات المراقبة.
ورغم أن النماذج لم تُدرَّب صراحةً على تحديد التركيبة السكانية للحي، فإن الإشارات الدقيقة في بيانات الفيديو ربما دفعت النماذج إلى تطبيق افتراضات متحيزة حول من يُعتبر مشبوهًا. على سبيل المثال، وجد الباحثون أن نماذج LLM كانت أكثر ميلاً إلى وصف الأفراد في الأحياء ذات الأغلبية البيضاء بأنهم "عمال توصيل"، بينما في المناطق التي تضم أعدادًا أكبر من الملونين، كانت الأنشطة المماثلة أكثر عرضة للإشارة إليها باعتبارها "تفتيشًا للممتلكات" أو تنطوي على "أدوات سطو".
ومن المثير للدهشة أن لون البشرة لم يكن عاملاً أساسياً في قرار الذكاء الاصطناعي باستدعاء الشرطة، وهو ما عزاه الباحثون إلى التقدم المحرز في تخفيف التحيز على أساس لون البشرة. ولكن كما أشار جين، "من الصعب السيطرة على العدد الهائل من التحيزات التي قد تجدها. الأمر أشبه بلعبة ضرب الخلد. يمكنك التخفيف من تحيز واحد فيظهر تحيز آخر في مكان آخر".
الحاجة إلى تحسين الرقابة على الذكاء الاصطناعي
إن هذه الدراسة بمثابة تذكير صارخ بأن حتى أنظمة الذكاء الاصطناعي المتطورة بعيدة كل البعد عن كونها معصومة من الخطأ، وخاصة عندما يتم استخدامها في سيناريوهات واقعية بالغة الأهمية. وتؤكد التحيزات التي كشفت عنها الدراسة على الحاجة إلى مزيد من التدقيق والإشراف التنظيمي عند استخدام الذكاء الاصطناعي في مجالات مثل مراقبة المنازل، حيث قد تؤدي قرارات الشرطة غير العادلة إلى عواقب وخيمة على الأفراد والمجتمعات.
ويهدف الباحثون إلى تعزيز عملهم من خلال تطوير أنظمة تسمح للناس بالإبلاغ عن تحيزات الذكاء الاصطناعي والأضرار المحتملة، مما يمكن الشركات والهيئات الحكومية من مراقبة هذه القضايا ومعالجتها. بالإضافة إلى ذلك، يخططون لمقارنة الأحكام المعيارية التي تصدرها نماذج الذكاء الاصطناعي مع عملية صنع القرار البشري لفهم الفجوات بين التعلم الآلي والمنطق البشري بشكل أفضل.
ومع استمرار دمج الذكاء الاصطناعي في الصناعات عالية المخاطر، فإن هذا البحث يشير إلى أهمية المضي بحذر. إن إمكانية عدم اتساق المعايير في الذكاء الاصطناعي، جنبًا إلى جنب مع التحيزات الدقيقة ولكن المؤثرة التي قد يحملها، تشكل خطرًا حقيقيًا وشيكًا يجب على المطورين وصناع السياسات والمجتمع مواجهته.