في الأول من أغسطس، تم إطلاق Gemini 1.5 Pro من Google بهدوء وسرعان ما تصدر عناوين الأخبار من خلال تجاوز ChatGPT-4o الخاص بـ OpenAI في معايير الذكاء الاصطناعي التوليدية. أصبح النموذج الجديد، الذي تم تصنيفه على أنه تجريبي، هو الأفضل أداءً في مجتمع الذكاء الاصطناعي، وفقًا للنتائج القياسية الأخيرة.
قياس نماذج الذكاء الاصطناعي
لقد كان ChatGPT من OpenAI رائدًا في مجال الذكاء الاصطناعي التوليدي منذ GPT-3. لقد هيمن أحدث إصدار لها، GPT-4o، جنبًا إلى جنب مع Anthropic’s Claude-3، على معظم المعايير الشائعة خلال العام الماضي. أحد الاختبارات الرئيسية، LMSYS Chatbot Arena، يقوم بتقييم نماذج الذكاء الاصطناعي في مهام مختلفة ويعين درجة الكفاءة الشاملة. حصل GPT-4o سابقًا على 1286 نقطة، بينما حصل Claude-3 على 1271 نقطة.
وسجل الإصدار السابق من Gemini 1.5 Pro 1,261 نقطة. ومع ذلك، حققت النسخة التجريبية الأحدث (Gemini 1.5 Pro 0801) درجة 1300، مما يشير إلى قدرة إجمالية أعلى من منافسيها. على الرغم من أن النتائج المعيارية توفر مؤشرًا للأداء، إلا أنها لا تعكس بشكل كامل نطاق القدرات أو القيود الخاصة بنموذج الذكاء الاصطناعي.
رد فعل المجتمع
لقد استجاب مجتمع الذكاء الاصطناعي بحماس لإصدار Gemini 1.5 Pro. سلطت ضجة وسائل التواصل الاجتماعي الضوء على أداء النموذج المثير للإعجاب، حيث وصفه بعض المستخدمين بأنه "جيد بجنون". وحتى تجاوز ChatGPT-4o. وأشار أحد مستخدمي Redditor إلى أنه "ينفخ 4 درجات من الماء". مما يعكس الإثارة المحيطة بالنموذج الجديد.
الاعتبارات المستقبلية
لا يزال من غير المؤكد ما إذا كانت النسخة التجريبية من Gemini 1.5 Pro ستصبح النموذج الافتراضي. ونظرًا لحالته الحالية كمرحلة إصدار مبكر أو مرحلة اختبار، فمن المحتمل أن يتم تغيير النموذج أو سحبه لأسباب تتعلق بالسلامة أو التوافق.