تكثف Google جهودها لإدارة التزييف العميق غير المصرح به الناتج عن الذكاء الاصطناعي. تنفذ الشركة إجراءات جديدة لخفض أو إزالة مواقع الويب التي تستضيف مثل هذا المحتوى من نتائج البحث.
فهم التزييف العميق
Deepfakes هي وسائط تم إنشاؤها باستخدام الذكاء الاصطناعي التوليدي، لإنتاج مقاطع فيديو أو صور أو مقاطع صوتية نابضة بالحياة. غالبًا ما تضم هذه الأفلام شخصيات عامة مثل سكارليت جوهانسون أو جو بايدن، ومن المثير للقلق أنها تتضمن أحيانًا أطفالًا.
عملية الإزالة المحسنة من Google
في منشور مدونة حديث، أوضحت جوجل أن الأشخاص تمكنوا منذ فترة طويلة من طلب إزالة الصور الصريحة غير التوافقية. والآن، تم وضع أنظمة جديدة لتبسيط هذه العملية، ومساعدة المستخدمين على معالجة المشكلة على نطاق أوسع.
التأثير على رؤية الموقع
أبلغ متحدث باسم Google شركة Decrypt أن المواقع التي تتلقى طلبات إزالة متعددة قد تتأثر رؤيتها. يمكن اعتبار هذه المواقع ذات جودة منخفضة، وسيعكس جوجل ذلك في أنظمة التصنيف الخاصة به، مما يقلل من ظهور الموقع في نتائج البحث.
تصفية نتائج البحث الصريحة
عندما تتلقى Google طلب إزالة لمحتوى مزيف عميق غير موافق عليه، ستقوم أيضًا بتصفية نتائج بحث مماثلة، مما يضمن تقليل احتمالية ظهور المحتوى الصريح. ويهدف هذا النظام إلى منع ظهور المحتوى الضار في عمليات البحث، مما يوفر طبقة من الحماية للأفراد المنتحلين.
SAG-AFTRA تعرب عن دعمها
أشادت صناعة الترفيه بسياسة جوجل الجديدة. تدعم منظمات مثل SAG-AFTRA التدابير التي تحمي من النسخ المتماثلة الرقمية غير المصرح بها، مما يجعلها إنجازًا مهمًا للتعاون على مستوى الصناعة.
معالجة التحديات
أحد التحديات التي تواجهها Google هو التمييز بين التزييف العميق غير التوافقي والمحتوى التوافقي أو الشرعي، مثل المشاهد العارية في الأفلام. وعلى الرغم من ذلك، تواصل جوجل تحسين خوارزمياتها لفصل المحتوى الحقيقي عن المواد المزيفة الصريحة بشكل أفضل.
معايير التعاون والصناعة
انضمت Google إلى مطوري الذكاء الاصطناعي الآخرين في التعهد بمنع نماذجهم من إنشاء محتوى ضار، مثل مواد الاعتداء الجنسي على الأطفال (CSAM). تستخدم الشركة تقنيات التجزئة لاكتشاف وحظر CSAM، مع الالتزام بمعايير الصناعة.
آراء الخبراء
يشير بن كلايتون، الرئيس التنفيذي لشركة Media Medic، إلى أن مكافحة التزييف العميق يمثل تحديًا مستمرًا. على الرغم من أن تحديث Google يعد خطوة إيجابية، إلا أن التحسينات المستمرة ضرورية لمنع انتشار المحتوى الضار. تشكل هذه التكنولوجيا مخاطر على الخصوصية والأمن وحتى النظام القضائي، حيث يمكن للتزييف العميق تلفيق الأدلة.
الجهود التشريعية
ويستجيب صناع السياسات أيضًا. قدمت السيناتور ماريا كانتويل قانون COPIED، واقترحت طريقة موحدة لوضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. تهدف هذه المبادرة إلى حماية الأفراد الشبه من الاستغلال غير المصرح به.