في عالم اليوم الذي يعتمد على الذكاء الاصطناعي، هناك مشكلة مهمة لا تزال في الظل وهي الافتقار إلى الشفافية. تعد شفافية الذكاء الاصطناعي ضرورية لبناء الثقة في أنظمة الذكاء الاصطناعي، وخاصة تلك المستخدمة في التطبيقات عالية المخاطر. عندما يتمكن أصحاب المصلحة من فهم كيفية عمل نظام الذكاء الاصطناعي بوضوح، فمن المرجح أن يثقوا بقراراته.
تحليل شامل لشفافية شركة الذكاء الاصطناعي
في جهد تعاوني بين باحثين من جامعة ستانفورد، ومعهد ماساتشوستس للتكنولوجيا، وبرينستون، كشف تقييم شامل للشفافية بين مطوري نماذج الأساس عن نتائج جديرة بالملاحظة. هذاتقدير ، والتي أجراها خبراء خارجيون، تسلط الضوء على حالة الشفافية في صناعة الذكاء الاصطناعي.
ومن خلال التقييم، يكشف أنه حتى النموذج الذي حصل على أعلى الدرجات بين مطوري نماذج الأساس حصل على 54 نقطة فقط من أصل 100، مما يؤكد الافتقار الأساسي للشفافية في الصناعة.
مصدر:ستانفورد CRFM
شفافية ضئيلة في جميع المجالات
يبلغ متوسط النتيجة لجميع المطورين 37% فقط. ومن المثير للدهشة أن 82 مؤشرًا فقط من أصل 100 تم استيفاءها من قبل مطور واحد على الأقل، مما يؤكد على وجود مجال لتحسين معايير الشفافية. ومن المثير للاهتمام أن مطوري نماذج الأساس المفتوح يظهرون في المقدمة، حيث يحقق اثنان من كل ثلاثة أعلى الدرجات. يسمح هؤلاء المطورون الرائدون بتنزيل أوزان نماذجهم، مما يضع معيارًا للشفافية. الاستقرار الذكاء الاصطناعي، على الرغم من أنه ليس مفتوح المصدر، يحتل المركز الرابع بشكل وثيق.
تحليل ثاقب حسب المجالات والمجالات الفرعية
يحدد التقييم الشامل 100 مؤشر مصنفة في ثلاثة مجالات حاسمة:
المنبع: فيما يتعلق ببناء نماذج الأساس، يشمل ذلك الموارد الحسابية والبيانات والعمالة. ومن الجدير بالذكر أن المطورين يفتقرون إلى البيانات والعمالة والنطاقات الفرعية للحوسبة، حيث سجلوا 20% و17% و17% فقط على التوالي.
نموذج: يركز هذا المجال على خصائص ووظائف نموذج الأساس. يُظهر المطورون الشفافية في مجالات مثل حماية بيانات المستخدم (67%)، وتطوير النماذج (63%)، والقدرات (62%)، والقيود (60%).
المصب: يتعمق هذا المجال في توزيع النموذج واستخدامه، مما يعكس الشفافية في كيفية تأثير النموذج على المستخدمين والتحديثات والسياسات الحاكمة.
مصدر:ستانفورد CRFM
مصدر:ستانفورد CRFM
التحليل الحبيبي من خلال المجالات الفرعية
في حين يظهر المطورون درجة من الشفافية في مختلف المجالات الفرعية، إلا أن هناك مجالًا كبيرًا للتحسين. على سبيل المثال، لم يكشف أي من المطورين عن كيفية توفير الوصول إلى بيانات الاستخدام. عدد قليل جدًا من المطورين يعترفون علنًا بالقيود المفروضة على نماذجهم أو يسمحون بتقييمات الجهات الخارجية. وبالمثل، يكشف ثلاثة مطورين فقط عن مكونات النموذج، ويكشف اثنان فقط عن أحجام النموذج.
النماذج المفتوحة مقابل النماذج المغلقة: الفجوة الكبرى
إن الجدل الدائر في دوائر الذكاء الاصطناعي حول ما إذا كان ينبغي أن تكون النماذج مفتوحة أم مغلقة هو جدل مثير للجدل. تتفوق النماذج المفتوحة على نظيراتها المغلقة، حيث يتفوق اثنان من النماذج الثلاثة المفتوحة على أفضل النماذج المغلقة. ينبع جزء كبير من هذا التفاوت من الافتقار إلى الشفافية بين المطورين المغلقين، خاصة في المجال الأولي، فيما يتعلق بالبيانات والعمالة وتفاصيل الحوسبة.
مصدر:ستانفورد CRFM
النقطة العمياء لأضرار الذكاء الاصطناعي
يثير المقال أسئلة مهمة حول تأثير الذكاء الاصطناعي على المجتمع. كم مرة تقدم روبوتات الدردشة نصائح طبية غير صحيحة؟ هل اتهمت محركات بحث الذكاء الاصطناعي الأفراد زوراً بارتكاب مخالفات؟ هل يتعرض المستخدمون لمحتوى متحيز تم إنشاؤه بواسطة الذكاء الاصطناعي؟ ومن المؤسف أن هذه الأسئلة غالبا ما تظل بلا إجابة، مما يؤكد ضرورة الشفافية. علاوة على ذلك، يمكن للذكاء الاصطناعي أن يلحق الضرر من خلال إنشاء محتوى صريح، والترويج للمعلومات الخاطئة، وإنشاء محتوى غير مرغوب فيه. الشفافية مطلوبة في كل هذه الحالات.
ولذلك، ينبغي لتقارير الشفافية أن تحدد الضرر وتكتشفه، وتكشف عن تكرار المحتوى الضار، وتقيم فعالية آليات التنفيذ ومرشحات الأمان. يعد هذا أمرًا حيويًا لتطبيقات الذكاء الاصطناعي ذات الأغراض العامة وعالية المخاطر.
التغلب على المقاومة والاعتبارات القانونية
قد تقاوم الشركات الإبلاغ عن الشفافية لأسباب مختلفة، بما في ذلك احتمال حدوث مخاطر تتعلق بالسمعة والمخاطر القانونية. ومع ذلك، فإن غياب الشفافية يمكن أن يضر بسمعتها على المدى الطويل. كما أن السوق شديد التركيز، مما يجعل زيادة الشفافية مفيدة للمستهلكين والسوق ككل.
في النهاية، إذا فشلت شركات الذكاء الاصطناعي في تبني الشفافية طوعا، فقد يضطر صناع السياسات إلى التدخل لضمان المساءلة.