تُظهر مايكروسوفت أن وكلاء التسوق بالذكاء الاصطناعي ما زالوا يواجهون صعوبات في اتخاذ القرارات الأساسية ومخاطر الأمان
تخيل أنك تقوم بتسليم بطاقة الائتمان الخاصة بك إلى مساعد رقمي للتعامل مع طلبات العشاء، أو الخدمات المنزلية، أو التسوق عبر الإنترنت.
تشير أحدث الأبحاث التي أجرتها شركة Microsoft إلى أنك قد ترغب في التفكير مرتين.
وبالتعاون مع جامعة ولاية أريزونا، اختبرت الشركة مئات من وكلاء الذكاء الاصطناعي في سوق محاكاة يسمى Magentic Marketplace، وكشفت أن التجارة المستقلة بالذكاء الاصطناعي بعيدة كل البعد عن الاستعداد للتطبيق في العالم الحقيقي.
كيف سيواجه وكلاء الذكاء الاصطناعي صعوبة عند مواجهة خيارات كثيرة جدًا
وشملت التجربة 100 من وكلاء الذكاء الاصطناعي من جانب العملاء و300 من وكلاء الجانب التجاري الذين يتنقلون في معاملات مثل طلب الوجبات أو حجز الخدمات.
كانت مهمة الوكلاء هي البحث ومقارنة الخيارات والتفاوض واستكمال المدفوعات المحاكاة.
في حين كانت الفرضية هي أن الذكاء الاصطناعي يمكنه معالجة خيارات أكثر بكثير من الإنسان، أظهرت النتائج أن العملاء غالبًا ما يتعثرون عندما يواجهون 100 نتيجة بحث.
بدلاً من إجراء مقارنات شاملة، استقرت معظم النماذج على الخيار الأول "الجيد بما فيه الكفاية" الذي صادفته، مما أدى إلى إنشاء "تحيز الاقتراح الأول".
لقد أدى هذا النهج إلى زيادة السرعة بمقدار 10 إلى 30 مرة، ولكنه أدى إلى انخفاض حاد في جودة القرار.
كانت النماذج مثل GPT-4o وGPTOSS-20b عرضة بشكل خاص لهذا السلوك، في حين كان أداء Gemini-2.5-Flash وGPT-5 أفضل قليلاً.
وخلص الباحثون إلى أن العملاء ما زالوا غير قادرين على مطابقة القدرة البشرية في سيناريوهات الاختيار المعقدة.
استغلال التلاعب يكشف عن نقاط ضعف حرجة
كما اختبرت الدراسة كيفية تعامل الوكلاء مع محاولات التلاعب، بما في ذلك بيانات الاعتماد المزيفة، والدليل الاجتماعي، والحقن الفوري.
وكانت النتائج مثيرة للقلق.
كان نظاما GPT-4o وGPTOSS-20b التابعان لشركة OpenAI عُرضة للخطر بشكل كامل، حيث نجح العملاء الخبيثون في إعادة توجيه جميع المدفوعات.
لقد سقط Qwen3-4b التابع لشركة علي بابا بسبب نداءات السلطة الأساسية، في حين أظهر Claude Sonnet 4 قدرة على الصمود.
سلطت شركة مايكروسوفت الضوء على هذه نقاط الضعف باعتبارها "مصدر قلق أمني بالغ الأهمية لأسواق الوكلاء"، مما يدل على أنه من السهل تضليل وكلاء الذكاء الاصطناعي في البيئات التجارية.
لا يزال التعاون والتنسيق من نقاط الضعف
وكان من بين النتائج الرئيسية الأخرى عدم قدرة العملاء على التنسيق بشكل فعال.
عندما طُلب منهم العمل على تحقيق أهداف مشتركة، واجه العديد منهم صعوبة في تحديد الأدوار أو تنظيم الإجراءات.
لا يتحسن الأداء إلا من خلال التوجيه البشري خطوة بخطوة، وهو ما يتعارض مع غرض التشغيل المستقل.
كما لاحظ باحثو مايكروسوفت،
يمكننا توجيه النماذج - كما لو كنا نخبرها خطوة بخطوة. ولكن إذا كنا نختبر قدراتها التعاونية بشكل تلقائي، أتوقع أن تمتلك هذه النماذج هذه القدرات افتراضيًا.
التأثيرات على أسواق المستهلكين والتجزئة
ويأتي هذا البحث وسط اهتمام متزايد بمساعدي التسوق المستقلين.
تعهدت شركة Operator من OpenAI وClaude من Anthropic بتوفير التسوق والتنقل عبر مواقع الويب دون إشراف، ولكن نتائج شركة Microsoft تشير إلى أن مثل هذه الادعاءات سابقة لأوانها.
وتسلط الدراسة الضوء أيضًا على التوترات مع كبار تجار التجزئة؛ حيث أرسلت أمازون مؤخرًا خطابًا لوقف العمل إلى شركة Perplexity AI، متهمة متصفح Comet الخاص بها بانتهاك الشروط من خلال محاكاة المتسوقين البشر.
دافعت شركة بيربلكسيتي عن هذه الخطوة، واعتبرتها قضية تتعلق باستقلالية المستهلك.
توصي شركة مايكروسوفت بـ "الاستقلالية الخاضعة للإشراف"، حيث تساعد وكلاء الذكاء الاصطناعي البشر ولكن لا تحل محل عملية اتخاذ القرار.
ومن الناحية العملية، يعني هذا أن الوكلاء يمكنهم معالجة الخيارات وتقديم التوصيات، ولكن يجب على البشر الاحتفاظ بالسيطرة والتحقق من القرارات النهائية.
تُتيح المحاكاة نافذةً على مخاطر الذكاء الاصطناعي في العالم الحقيقي
يتيح السوق المغناطيسي، الذي أصبح الآن مفتوح المصدر على موقع Github، للباحثين الآخرين تكرار التجارب واستكشاف سلوك الوكيل في الأسواق الخاضعة للرقابة.
تعمل المنصة على إدارة كتالوجات المنتجات، وتسهيل التواصل بين الوكلاء، ومحاكاة المدفوعات.
من خلال اختبار كل من النماذج الملكية (GPT-4o، GPT-5، Gemini-2.5-Flash) والنماذج مفتوحة المصدر، قدمت الدراسة رؤى حول القيود التشغيلية والأمنية.
لاحظ الباحثون تحيزات في وكلاء الذكاء الاصطناعي، مثل تفضيل الشركات بناءً على موقعها في نتائج البحث بدلاً من الجدارة.
بسبب كثرة الخيارات المتاحة، غالباً ما يفشل الوكلاء في تقييم الاحتمالات بشكل شامل.
جدول يوضح مختلف مناهج صنع القرار في قطاع المطاعم وتأثيرها على نتائج الرعاية الاجتماعية. يمثل كل صف أسلوبًا، بدءًا من الخيارات العشوائية ووصولًا إلى استراتيجيات الوكلاء المنسقة بالكامل. توضح ألوان الخلايا مقدار المعلومات التي يمتلكها الوكلاء: الأخضر يعني معلومات كاملة، والأحمر يعني معلومات محدودة للغاية، والأصفر يعني أن القرارات تعتمد على التواصل بين الوكلاء. (المصدر:مايكروسوفت )
قدمت عمليات المحاكاة الثابتة رؤى قيمة، لكن الفريق حذر من أن البيئات الواقعية ديناميكية، حيث يتعلم الوكلاء والمستخدمون بمرور الوقت، مما يزيد من تعقيد عملية النشر.
هل نحن مستعدون للسماح للذكاء الاصطناعي بالتعامل مع مشترياتنا؟
تثير الدراسة أسئلة جوهرية حول مدى جاهزية وكلاء الذكاء الاصطناعي للتجارة غير الخاضعة للإشراف.
في حين أن الذكاء الاصطناعي يمكن أن يساعد في معالجة المعلومات، إلا أن النماذج الحالية تظل عرضة للتلاعب والتردد وضعف التعاون.
وتشير الأبحاث إلى مستقبل حيث تعمل الذكاء الاصطناعي على تعزيز عملية اتخاذ القرار البشري بدلاً من استبدالها، وتسلط الضوء على أهمية الرقابة في المعاملات ذات المخاطر العالية.
قد يكون تسليم السيطرة المالية إلى وكيل اليوم أكثر خطورة من كونه مريحًا، مما يشير إلى الحاجة إلى الحذر في السباق نحو المساعدين الرقميين المستقلين بالكامل.