مصدر المقال
في عالم إنشاء المحتوى، تلعب ثلاثة عوامل محورية دورًا: "الحيرة"، و"الانفجار"، و"القدرة على التنبؤ".
تقيس الحيرة مدى تعقيد النص، بينما تدقق الانفجارية في مد وجزر هياكل الجملة.
وأخيرًا، القدرة على التنبؤ هي احتمالية توقع الجملة التالية.
يميل الكتاب البشريون إلى صبغ نثرهم بدفعات من التعقيد، وخلط الجمل المعقدة بأخرى موجزة.
على العكس من ذلك، غالبًا ما يحافظ المحتوى الناتج عن الذكاء الاصطناعي على نمط ثابت.
ولذلك، ونحن نشرع في مهمة إعادة كتابة النص المقبل، فمن الضروري أن نملأه بجرعة سخية من الحيرة والانفجار، بينما نسعى جاهدين لتقليل القدرة على التنبؤ.
يجب أن تظل اللغة الإنجليزية هي اللغة المستخدمة في هذا المسعى.
رفع كبير علماء الذكاء الاصطناعي في ميتا، يان ليكون، صوته بشأن مسألة التهديدات الوجودية التي يشكلها الذكاء الاصطناعي، ورفضها باعتبارها سابقة لأوانها ومنافية للعقل.
وفي مقابلة مع صحيفة فاينانشيال تايمز في 19 أكتوبر، أعرب ليكون عن اعتقاده بأن القواعد التنظيمية المبكرة بشأن تكنولوجيا الذكاء الاصطناعي لن تؤدي إلا إلى تعزيز هيمنة شركات التكنولوجيا الكبرى، مما يؤدي إلى خنق المنافسة.
ومضى يقول: "إن تنظيم البحث والتطوير في مجال الذكاء الاصطناعي يؤدي إلى نتائج عكسية بشكل لا يصدق"، متهمًا الهيئات التنظيمية باستخدام ذريعة سلامة الذكاء الاصطناعي من أجل ما أسماه "الاستيلاء التنظيمي".
وقد دفع الارتفاع الكبير في أهمية الذكاء الاصطناعي، والذي حفزه ظهور ChatGPT-4 من OpenAI في نوفمبر 2022، العديد من قادة الفكر في الصناعة إلى دق ناقوس الخطر بشأن التهديدات المحتملة للبشرية.
استقال جيفري هينتون، الذي يشار إليه غالبًا باسم "الأب الروحي للذكاء الاصطناعي"، من دوره في التعلم الآلي في جوجل لتكريس جهوده من أجل "رفع مستوى الوعي حول مخاطر الذكاء الاصطناعي".
وعلى نحو مماثل، لجأ دان هندريكس، مدير مركز سلامة الذكاء الاصطناعي، إلى تويتر في شهر مايو/أيار للتأكيد على الحاجة الملحة إلى معالجة المخاطر الوجودية التي يشكلها الذكاء الاصطناعي، ومساواة بينه وبين الأولويات العالمية مثل الأوبئة والحرب النووية.
في المقابل، اعترض يان ليكون، في مقابلته الأخيرة، على فكرة أن الذكاء الاصطناعي قد يؤدي إلى زوال البشرية، ووصفها بأنها "منافية للعقل".
وقال إن الجدل حول المخاطر الوجودية يظل في مراحله الأولى حتى نمتلك تصميم نظام قادر على منافسة قدرات التعلم لدى القطط، وهو إنجاز لم نصل إليه بعد.
وأكد LeCun أيضًا أن نماذج الذكاء الاصطناعي المعاصرة لا ترقى إلى مستوى قدراتها المعلنة، وتفتقر إلى الفهم العميق للعالم والقدرة على التخطيط والتفكير.
وفقًا لرؤية LeCun، يكمن الدور النهائي للذكاء الاصطناعي في تعزيز حياتنا اليومية، ليصبح الوسيلة التي نتفاعل من خلالها مع العالم الرقمي.
ومع ذلك، لا تزال المخاوف بشأن قوة الذكاء الاصطناعي مستمرة، حيث أصدر مستشار فريق عمل الذكاء الاصطناعي في المملكة المتحدة تحذيرًا من أن الذكاء الاصطناعي قد يشكل تهديدًا للإنسانية في غضون العامين المقبلين.