يدخل Meta's AI إلى ساحة الوسائط المتعددة مع Chameleon
تقدم شركة Meta، الشركة الأم لفيسبوك، منافسها الخاص إلى الطاولة في السباق للحصول على نموذج الذكاء الاصطناعي متعدد الوسائط الأكثر تقدمًا.
على الرغم من أن النماذج اللغوية الكبيرة كانت مثيرة للإعجاب، إلا أنها تقتصر على معالجة النص. يأخذ الذكاء الاصطناعي متعدد الوسائط الأمور خطوة إلى الأمام من خلال القدرة على فهم وإنشاء ليس فقط النص، ولكن أيضًا الصور والتسجيلات الصوتية وحتى مقاطع الفيديو.
إجابة Meta لهذا التحدي هي Chameleon، وهو نموذج متعدد الوسائط يستخدم تقنية "الاندماج المبكر". يقترب. وهذا يعني أنه على عكس "الاندماج المتأخر" السابق؛ التقنيات التي تعالج أشكالًا مختلفة من البيانات بشكل منفصل، تتعامل Chameleon مع جميع البيانات - النصوص والصور وحتى التعليمات البرمجية - ككيان واحد.
ولتحقيق ذلك، قام فريق Chameleon بتطوير نظام يحول جميع البيانات إلى مجموعة مشتركة من الرموز المميزة، على غرار كيفية معالجة الكلمات في نماذج اللغات الكبيرة.
وهذا يسمح بتطبيق تقنيات حوسبة قوية على هذه البيانات المجمعة، مما يؤدي إلى فهم أكثر شمولاً للمعلومات المعقدة.
إحدى المزايا الرئيسية لـ Chameleon هي أنها نموذج شامل. وهذا يعني أنه يتعامل مع العملية الكاملة لفهم وتوليد البيانات متعددة الوسائط، من البداية إلى النهاية.
قام الباحثون وراء Chameleon أيضًا بتطبيق تقنيات تدريب خاصة للسماح للنموذج بالعمل مع هذه المجموعة المتنوعة من أنواع الرموز المميزة.
وتضمن ذلك عملية تعلم مكونة من مرحلتين ومجموعة بيانات ضخمة مصممة خصيصًا للتعلم متعدد الوسائط. وتم بعد ذلك ضبط النظام على وحدات معالجة الرسومات عالية السرعة لمدة مذهلة بلغت 5 ملايين ساعة.
أظهر الاختبار أن Chameleon هي قوة متعددة الوسائط. فهو يحقق أداءً متطورًا في مهام مثل التعليق على الصور، بل ويتجاوز النماذج السابقة للنص فقط من Meta.
وفي بعض الحالات، يكون Chameleon قادرًا على مطابقة النماذج الأكبر حجمًا أو التفوق عليها بشكل كبير مثل OpenAI's GPT-4 وMeta's Gemini Pro، مما يدل على تنوعه المثير للإعجاب ضمن إطار عمل واحد موحد.
لقاء صحفي سنغافوري مع Meta AI
في الآونة الأخيرة، خاض أوزموند شيا، الصحفي في صحيفة ستريتس تايمز في سنغافورة، تجربة مثيرة للقلق مع Meta AI، وهو برنامج دردشة جديد مصمم لمنافسة ChatGPT وGemini من Google.
مفتونًا بقدرات نماذج اللغات الكبيرة هذه، قررت Chia اختبار Meta AI بسؤال بسيط: "من هو Osmond Chia؟"
وكان الرد الذي تلقاه أقل من الصدمة.
قامت شركة Meta AI بتلفيق قصة درامية متقنة، حيث صورت تشيا على أنها مصورة سنغافورية سُجنت بتهمة الاعتداء الجنسي بين عامي 2016 و2020.
وتضمنت القصة الملفقة تفاصيل عن محاكمة مطولة، وضحايا متعددين، وغضب شعبي واسع النطاق.
التنقيب بشكل أعمق يكشف عن خلل في تكامل البيانات
في حيرة من أمرها بسبب المعلومات الخاطئة، ضغطت شيا على Meta AI للحصول على مزيد من التفاصيل. حافظ برنامج الدردشة الآلي على روايته الملفقة، حتى أنه استشهد بصحيفة ستريتس تايمز كمصدر لها.
دفعت هذه التفاصيل شيا إلى الاعتقاد بأن Meta AI ربما أساءت تفسير خطه الثانوي في المقالات التي تغطي قضايا المحكمة.
على الرغم من الإبلاغ عن الخطأ والإشارة إلى أن المعلومات كانت خاطئة بشكل واضح، استمرت Meta AI في تقديم نفس الاستجابة غير الدقيقة. أثار هذا مخاوف بشأن الخوارزميات الأساسية لروبوتات الدردشة وطرق تكامل البيانات.
مشكلة الجيل المعزز للاسترجاع (RAG)
يعتقد الخبراء أن الخلل في Meta AI ينبع من تقنية تسمى Retrieval-Augmented Generation (RAG). تسمح RAG لروبوتات الدردشة بالوصول إلى كميات هائلة من المعلومات من الإنترنت ومعالجتها لتقديم استجابات أكثر صلة.
ومع ذلك، في حالة تشيا، يبدو أن الفريق الاستشاري قد جاء بنتائج عكسية.
بدلاً من التحليل الدقيق لخط تشيا ومحتوى مقالاته، ربما أخطأت Meta AI في تفسير العناوين الرئيسية أو الكلمات الرئيسية، مما أدى إلى السرد الملفق.
يسلط هذا الحادث الضوء على المخاطر المحتملة لـ RAG عندما لا يتم تنفيذها مع الضمانات المناسبة وآليات التحقق من الحقائق.
Chatbots وانتشار المعلومات المضللة
تجربة شيا ليست حادثة معزولة.
في أبريل 2023، اتُهم موقع ChatGPT باتهام أستاذ القانون زورًا بالتحرش الجنسي. وبالمثل، قدم برنامج الدردشة الآلي الخاص بشركة طيران كندا معلومات غير دقيقة، مما أدى إلى خسارة دعوى قضائية لصالح شركة الطيران.
توضح هذه الحالات مخاطر روبوتات الدردشة باعتبارها ناقلات محتملة للمعلومات المضللة. إن صعوبة مساءلة أنظمة الذكاء الاصطناعي هذه تزيد من تعقيد المشكلة.
على عكس منصات الوسائط التقليدية، لا توجد طريقة لتتبع مدى وصول الاستجابة غير الدقيقة لروبوتات الدردشة، مما يجعل من الصعب إثبات التشهير أو مساءلة الشركات.
حذار المستخدم أم مساءلة الذكاء الاصطناعي؟
غالبًا ما تحمي شركات مثل Meta نفسها بإخلاء المسؤولية في شروط الاستخدام الخاصة بها، مما يضع عبء التحقق من المعلومات على عاتق المستخدم.
ومع ذلك، فإن هذا يخلق معضلة.
يتم الترويج لروبوتات الدردشة كمصادر موثوقة للمعلومات، ومع ذلك يُتوقع من المستخدمين التحقق من كل إجابة بشكل مستقل. يثير هذا التناقض تساؤلات حول الغرض الحقيقي من هذه الأنظمة.
ونظرًا لارتفاع تكلفة المعارك القانونية، فمن المرجح أن يلجأ معظم المستخدمين إلى الإبلاغ عن المعلومات الخاطئة إلى المنصات نفسها. لكن فعالية هذا النهج لا يزال يتعين رؤيتها.
رئيس الذكاء الاصطناعي في ميتا يلقي ظلالاً من الشك على نماذج اللغات الكبيرة التي تحقق الذكاء على المستوى البشري
ألقى يان ليكون، عالم الذكاء الاصطناعي الرائد في ميتا، الماء البارد على فكرة أن نماذج اللغات الكبيرة (LLMs) مثل ChatGPT ستحقق ذكاءً حقيقيًا يشبه الإنسان.
في مقابلة مع صحيفة فاينانشيال تايمز، جادل ليكون بأن هذه النماذج لديها العديد من القيود الحاسمة التي تمنعها من الوصول إلى الفهم والتفكير على المستوى البشري.
وفقا لـ LeCun، يفتقر حاملو ماجستير إدارة الأعمال إلى الفهم الأساسي للعالم المادي. لا يمتلكون ذاكرة ثابتة، مما يعني أنهم لا يستطيعون التعلم والبناء على تجارب الماضي كما يفعل البشر.
علاوة على ذلك، يقول LeCun أن حاملي ماجستير القانون غير قادرين على التفكير الحقيقي أو التخطيط الهرمي.
ويؤكد أن هذه النماذج تعتمد بشكل كبير على بيانات التدريب المحددة التي يتم تغذيتها، وأن استجاباتها محدودة بمعلمات تلك البيانات.
وهذا، بحسب LeCun، يجعلها "غير آمنة في جوهرها". لأنه يمكن التلاعب بها بسهولة لإنتاج مخرجات مضللة أو غير صحيحة.
أليست هذه حالة منتج Meta الخاص الذي يواجه مشكلات مماثلة؟ هل يسلط LeCun عن غير قصد الضوء على المشاكل التي تواجهها منتجاته؟
LLaMa وتحدي تحقيق الدخل
يعتمد نهج ميتا على مشاريع الذكاء الاصطناعي مفتوحة المصدر مثل LLaMa، والتي حظيت باهتمام كبير داخل مجتمع الذكاء الاصطناعي. ومع ذلك، لم تترجم هذه المشاريع إلى مصادر إيرادات مباشرة بعد.
ويكمن الأمل في البنية التحتية الواسعة للذكاء الاصطناعي لشركة Meta، والتي تعتقد الشركة أنها ستمهد الطريق للريادة العالمية في هذا المجال.
والجدير بالذكر أن النفقات الرأسمالية الكبيرة التي كانت موضع سخرية سابقًا بسبب "الميتافيرس"؛ يُنظر الآن إلى المشروع بشكل إيجابي نظرًا لدوره المحتمل في تطوير الذكاء الاصطناعي.
أحد الاختلافات الرئيسية بين Meta ومنافسيها هو استراتيجية الشركة لتحقيق الدخل من الذكاء الاصطناعي. بدأت Meta في فرض رسوم مقابل الوصول إلى نماذج الذكاء الاصطناعي الأكبر حجمًا، لكن جزءًا كبيرًا من التكنولوجيا لا يزال متاحًا مجانًا.
ويهدف هذا النهج إلى الاستفادة من حجم منصات التواصل الاجتماعي الخاصة بها - فيسبوك، وإنستغرام، وThreads، وWhatsApp - لتوليد الإيرادات بشكل غير مباشر.
بشكل أساسي، من خلال جعل الذكاء الاصطناعي سلعة متاحة بسهولة، تأمل Meta في جذب المزيد من المستخدمين والتفاعلات داخل نظامها البيئي، مما يؤدي في النهاية إلى منصة إعلانية أكثر قيمة.
غاري ماركوس وشكوك LLM
ومع ذلك، فإن هذه النظرة المتفائلة تواجه تحديًا بسبب شكوك شخصيات بارزة مثل غاري ماركوس. يقول ماركوس أن ماجستير إدارة الأعمال مبالغ فيه وعرضة للأخطاء.
وهو يعتقد أن الحماس الحالي المحيط بهم يمثل "تعليقًا للكفر". وأن الأساليب البديلة مثل الذكاء الاصطناعي الرمزي العصبي تحمل وعدًا أكبر.
يحاول الذكاء الاصطناعي الرمزي العصبي تقليد وظائف الدماغ البشري، وهو مفهوم يعتقد ماركوس أنه تم التخلي عنه قبل الأوان من قبل الباحثين.
بعبارات أبسط، يشير ماركوس إلى أنه على الرغم من قدرة حاملي شهادة الماجستير في إدارة الأعمال (LLM) على التعامل مع تفاعلات خدمة العملاء الأساسية، إلا أنهم يفتقرون إلى القدرة على التعامل مع المواقف المعقدة.
عندما تواجه الشركات مطالبة العملاء، ستظل بحاجة إلى التدخل البشري. إذا أصبحت هذه الشكوك سائدة، فقد يواجه مستثمرو ميتا خسائر كبيرة.
رؤية LeCun: تحويل التركيز من LLM إلى World Modeling AI
يتناقض منظور LeCun مع الموجة الحالية من الاستثمار في تكنولوجيا LLM.
تضخ العديد من الشركات الموارد لتطوير دورات ماجستير إدارة (LLM) أكثر تعقيدًا على أمل تحقيق الذكاء العام الاصطناعي (AGI) - وهو مستوى من الذكاء الآلي يفوق القدرات البشرية.
ومع ذلك، يقترح LeCun نهجا مختلفا. يعمل هو وفريقه في مختبر أبحاث الذكاء الاصطناعي التابع لشركة Meta على جيل جديد من أنظمة الذكاء الاصطناعي القائمة على "النمذجة العالمية".
يهدف هذا النهج إلى إنشاء ذكاء اصطناعي يمكنه بناء فهم للعالم من حوله، على غرار كيفية تعلم البشر وتفاعلهم مع بيئتهم.
في حين أن هذا النهج يبشر بمستقبل الذكاء الاصطناعي، فإن LeCun يعترف بأنها رؤية طويلة المدى، ومن المحتمل أن تستغرق عشر سنوات أو أكثر لتؤتي ثمارها.
شركة ميتا للإعلان
على الرغم من الشكوك المحيطة بالذكاء الاصطناعي، تمتلك Meta ميزة قوية: هيمنتها على مشهد الإعلان الرقمي.
تستمر إيرادات إعلانات الشركة في الارتفاع، مدعومة بقدرتها التي لا مثيل لها على استهداف المستخدمين عبر منصات مختلفة.
تسمح هذه الإمكانية لـ Meta بتقديم إعلانات وثيقة الصلة بتكلفة أقل مقارنة بالإعلانات التقليدية القائمة على المحتوى.
في الأساس، أثبتت Meta نفسها كشبكة اتصالات مجانية في العالم. وتسهل بنيتها التحتية الواسعة إجراء مكالمات ورسائل مجانية، ويتم تمويلها بالكامل من عائدات الإعلانات.
يعتمد هذا النموذج على القدرة على ربط العملاء المحتملين بناءً على محادثاتهم وتفاعلاتهم عبر الإنترنت. على عكس الوسائط التقليدية، لا تتحمل Meta تكاليف إنشاء المحتوى، مما يزيد من ربحيتها (حاليًا بصافي هوامش 33٪).
ومع ذلك، فإن هذا السعي الدؤوب لتحقيق الأرباح يثير مخاوف أخلاقية. تعرضت منصة الإعلانات المعتمدة على الخوارزمية التابعة لشركة Meta لانتقادات لأنها سمحت بالترويج لمحتوى إعلاني ضار على منصاتها.
على الرغم من الوعود بمعالجة هذه المشكلات، يرى النقاد أن Meta قد تعطي الأولوية للإيرادات على المبادئ، مما قد يسمح باستمرار المحتوى الضار.
موافقة ميتا على الإعلانات السياسية التي تم التلاعب بها بواسطة الذكاء الاصطناعي في الانتخابات الهندية
ليست المرة الأولى التي تواجه فيها شركة ميتا التدقيق فيما يتعلق بموافقتها على الإعلانات غير الأخلاقية.
وهذه المرة، تواجه الشركة الأم لفيسبوك وإنستغرام انتقادات شديدة بسبب فشلها في منع انتشار الإعلانات السياسية التي يتلاعب بها الذكاء الاصطناعي خلال الانتخابات الهندية الأخيرة.
وفقًا لتقرير تمت مشاركته حصريًا مع صحيفة الغارديان، وافق ميتا على سلسلة من الإعلانات التي تحتوي على خطاب الكراهية والمعلومات المضللة والتحريض على العنف الديني الذي يستهدف الجماعات الدينية والزعماء السياسيين، بما في ذلك الإهانات المعروفة تجاه المسلمين وخطاب التفوق الهندوسي.
على الرغم من آليات ميتا المفترضة لاكتشاف المحتوى الضار وحظره، فقد تمت الموافقة على هذه الإعلانات، التي قدمتها منظمة India Civil Watch International وEkō، مما أدى إلى تضخيم قدرة المنصة على تضخيم الروايات الضارة الموجودة.
رئيس الوزراء الهندي، ناريندرا مودي، إلى جانب الرئيس التنفيذي لشركة فيسبوك، مارك زوكربيرج (المصدر: صحيفة الغارديان)
الفشل في الكشف عن المحتوى الالتهابي
ومن المثير للقلق أن أنظمة ميتا فشلت في إدراك أن الإعلانات المعتمدة تضمنت صورًا تم التلاعب بها بواسطة الذكاء الاصطناعي، على الرغم من تعهد الشركة العلني بمنع انتشار المحتوى الناتج عن الذكاء الاصطناعي أو الذي تم التلاعب به خلال الانتخابات الهندية.
وبينما تم رفض بعض الإعلانات لانتهاكها معايير المجتمع، تمت الموافقة على الإعلانات التي تستهدف المسلمين، مما يشكل انتهاكًا لسياسات ميتا الخاصة بشأن خطاب الكراهية والمعلومات المضللة والتحريض على العنف.
علاوة على ذلك، فشلت ميتا في الاعتراف بهذه الإعلانات باعتبارها سياسية أو مرتبطة بالانتخابات، مما سمح لها بالتحايل على قواعد الانتخابات الهندية، التي تحظر الإعلانات السياسية خلال فترات التصويت.
ويسلط هذا الفشل الضوء على أوجه القصور في المنصة في مكافحة خطاب الكراهية والمعلومات المضللة، مما يثير تساؤلات حول موثوقيتها في إدارة الانتخابات في جميع أنحاء العالم.
استجابة ميتا والتحديات المستمرة
ردًا على ما تم الكشف عنه، أكدت ميتا على ضرورة التزام المعلنين بجميع القوانين المعمول بها والتزامها بإزالة المحتوى المخالف.
ومع ذلك، تكشف النتائج عن فجوات كبيرة في آليات ميتا لمعالجة خطاب الكراهية والمعلومات المضللة. وعلى الرغم من الادعاءات بالتحضير المكثف للانتخابات الهندية، فإن عجز ميتا عن اكتشاف ومنع نشر المحتوى الضار يدعو إلى التشكيك في فعاليته في حماية العمليات الديمقراطية.
وبينما تواجه الشركة التحديات المستمرة في الإشراف على المحتوى، بما في ذلك انتشار خطاب الكراهية المعادي للإسلام ونظريات المؤامرة، هناك مخاوف متزايدة بشأن قدرتها على معالجة قضايا مماثلة في الانتخابات على مستوى العالم، مما يثير الشكوك حول مصداقيتها كمنصة للخطاب السياسي.
أرض خصبة لعمليات الاحتيال
أصبحت منصات Meta، بما في ذلك Facebook وInstagram وWhatsApp، بؤرًا لعمليات الاحتيال على مستوى العالم. من عمليات التصيد الاحتيالي إلى توزيع البرامج الضارة، يثير تراخي الرقابة لدى Meta وإجراءات السلامة غير الكافية مخاوف بشأن أمان المستخدم.
ال رد الشركة على الأخبار الملفقة ويسلط الضوء كذلك على تعرضها للاستغلال، مما يثير تساؤلات حول قدرتها على مكافحة عمليات الاحتيال بشكل فعال.
تنشأ تكهنات حول ما إذا كانت شركة Meta تغض الطرف عن هذه المخاوف لصالح تخصيص الأموال لمساعيها في تطوير الذكاء الاصطناعي.
ميتا: منزل منقسم؟
ومع استمرار تطور هذه التقنيات، تعد آليات التحقق من الحقائق القوية وتوقعات المستخدم الأكثر وضوحًا أمرًا بالغ الأهمية لمنع انتشار المعلومات الخاطئة وحماية الأفراد من الإضرار بالسمعة.
تقدم شركة Meta نفسها كشركة رائدة في مجال الذكاء الاصطناعي تتخطى حدود التكنولوجيا، إلا أن منصات التواصل الاجتماعي الخاصة بها مليئة بقضايا السلامة.
وبينما تستثمر الشركة بكثافة في تطورات الذكاء الاصطناعي مثل Chameleon، فإن قدرتها على التخفيف من مشاكل العالم الحقيقي مثل المعلومات الخاطئة والتلاعب السياسي تظل موضع شك. يثير هذا التناقض سؤالًا بالغ الأهمية: هل يمكن لشركة Meta حقًا أن تكون بطلة للذكاء الاصطناعي إذا لم تتمكن من معالجة المخاوف المتعلقة بالسلامة التي تعاني منها منتجاتها الحالية؟
قد تكمن الإجابة في مدى فعالية Meta في سد الفجوة بين أهدافها الطموحة في مجال الذكاء الاصطناعي والحاجة الملحة لحماية مستخدميها.
هذا الاسبوع تعيين مستشارين خارجيين يشير إلى تحول محتمل نحو نهج أكثر شمولية، ولكن الوقت وحده هو الذي سيحدد ما إذا كانت Meta قادرة على التوفيق بين رؤيتها المستقبلية وأوجه القصور الحالية.