لقد جذبت الزيادة الكبيرة في الأدلة الإرشادية التي أنشأها الذكاء الاصطناعي (AI) والمتاحة للشراء على موقع أمازون، انتباه الخبراء الذين رفعوا علمًا أحمر بشأن التداعيات الوخيمة المحتملة. ومع العروض التي تشمل كتب الطبخ وأدلة السفر، يطلق المؤلفون البشريون نداء واضحا للقراء، مما يسلط الضوء على المخاطر المحتملة للاعتماد الثابت على الذكاء الاصطناعي.
وقد اتخذت جمعية نيويورك للفطرياتX (المعروف سابقًا باسم تويتر) لإصدار إنذار مدوي حول المخاطر المرتبطة بكتب البحث عن الطعام المشبوهة التي يشتبه في أنها نتيجة لأدوات الذكاء الاصطناعي التوليدية، مثل ChatGPT.
وأشارت رئيسة جمعية نيويورك للفطريات، سيغريد جاكوب، إلى أن "هناك المئات من الفطريات السامة في أمريكا الشمالية والعديد منها مميت". يمكن أن تبدو مشابهة للأنواع الصالحة للأكل الشائعة. إن الوصف السيئ في الكتاب يمكن أن يضلل شخصًا ما ويدفعه إلى تناول فطر سام.
سلط استكشاف على أمازون الضوء على عدد كبير من العناوين المشكوك فيها، بما في ذلك أمثلة مثل "الدليل الميداني لكتب الفطر المطلق للجنوب الغربي"؛ و "كتاب طبخ الفطر البري للمبتدئين" [كذا] - وتمت إزالة كلاهما منذ ذلك الحين.
هذه العناوين المحددة، على الأرجح من تأليف شخصيات غير موجودة، تؤكد علىظهور المحتوى الناتج عن الذكاء الاصطناعي . تلتزم هذه المنشورات المزعومة بأنماط مألوفة، بدءًا من الحكايات الخيالية القصيرة عن المتحمسين الهواة الذين يتم تسجيلهم على أنهم غير أصيلين.
يكشف الفحص المتعمق للمحتوى نفسه عن متاهة من عدم الدقة وتكوين نصي يحاكي الأنماط المميزة التي تُنسب عادةً إلى النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، بدلاً من الانبثاق من خبرة فطرية حقيقية.
ومع ذلك، ما يثير القلق هو أن هذه الكتب كانت مخصصة للأفراد الذين يغامرون بالبحث عن الطعام بخبرة محدودة، مما جعلهم غير قادرين على التمييز بينمشورة غير موثوقة تعتمد على الذكاء الاصطناعي من مصادر معلومات موثوقة وحقيقية.
وأضافت سيغريد أن "الكتب التي كتبها الإنسان يمكن أن تستغرق سنوات للبحث والكتابة."
كيف يمكن أن تكون قاتلة؟
ولا يمكن المبالغة في أهمية ممارسة الحكمة في اعتمادنا على الذكاء الاصطناعي، نظرا لقدرته على نشر معلومات مضللة أو حتى مشورة محفوفة بالمخاطر في غياب الرقابة اليقظة.النتائج الأخيرة ويؤكد هذا الاتجاه المثير للقلق: فالناس أكثر ميلا إلى تبني المعلومات المضللة التي ينشرها الذكاء الاصطناعي بدلا من الافتراءات التي تنشأ من مصادر بشرية.
تمتد هذه الظاهرة إلى ما هو أبعد من عالم أدلة البحث عن الطعام المشكوك فيها. برزت إحدى الأمثلة مؤخرًا، والتي تضمنت تطبيقًا للذكاء الاصطناعي قام بتوزيع توصيات وصفات خطرة للمستخدمين.
وفي نيوزيلندا، كشفت سلسلة المتاجر الكبرى Pak 'n' Save النقاب عن "Savey Meal-Bot". تطبيق لتخطيط الوجبات مدعوم بالذكاء الاصطناعي مصمم لاقتراح وصفات تتوافق مع احتياجات المستخدمين. مكونات الإدخال. ومع ذلك، وعلى سبيل المزاح، قام المستخدمون بإطعام التطبيق بأدوات منزلية خطرة، فقط لتلقي توصيات لصياغة خلطات سامة مثل "مزيج الماء العطري" و "الميثانول بليس".
على الرغم من أن التطبيق خضع منذ ذلك الحين لتعديلات لعرقلة الاقتراحات غير الآمنة، إلا أنه يسلط الضوء على المخاطر الكامنة التي تنشأ عندما يتم تسخير الذكاء الاصطناعي دون نشر مسؤول.
ومع ذلك، فإن التعرض للمعلومات المضللة التي يولدها الذكاء الاصطناعي لا ينبغي أن يفاجئنا. تم تصميم النماذج اللغوية، مثل نماذج اللغات الكبيرة (LLMs)، لصياغة المحتوى استنادًا إلى النتائج الأكثر احتمالًا وتماسكًا، وهو إنجاز تم تحقيقه من خلال التدريب المكثف على مجموعات البيانات الضخمة.
يمكن لهذه البراعة أن تقود البشر إلى منح المصداقية للذكاء الاصطناعي، حيث تعكس مخرجاته بشكل وثيق النتائج التي نعتبرها إيجابية. وفي حين أن الخوارزميات المبتكرة قادرة بالتأكيد على تعزيز القدرات البشرية عبر مجالات متنوعة، فإن التخلي عن قدرتنا على التمييز لصالح الآلات فقط يثبت أنه اقتراح محفوف بالمخاطر بالنسبة للمجتمع ككل.
نظرًا لأننا نعيش في عصر التكنولوجيا الحالي الذي يتطور باستمرار، نحتاج إلى أن نظل مدركين للمزالق المحتملة التي تنشأ عندما نعهد إلى الذكاء الاصطناعي بدور صانع القرار.