أصدرت الولايات المتحدة والمملكة المتحدة وأستراليا و15 دولة أخرى مبادئ توجيهية عالمية تهدف إلى المساعدة في حماية نماذج الذكاء الاصطناعي من التلاعب، وحثت الشركات على ضمان أن تكون نماذجها "آمنة حسب التصميم".
وتتضمن التوجيهات بشكل أساسي توصيات عامة، مثل فرض رقابة مشددة على البنية التحتية لنماذج الذكاء الاصطناعي، ومراقبة نماذج التلاعب قبل وبعد إصدارها، وتدريب الموظفين على مخاطر الأمن السيبراني. ويوصي التوجيه بممارسات الأمن السيبراني التي يجب على شركات الذكاء الاصطناعي تنفيذها عند تصميم نماذج الذكاء الاصطناعي وتطويرها وإطلاقها ومراقبتها.
وتشمل الدول الأخرى التي وقعت على المبادئ التوجيهية الجديدة كندا وفرنسا وألمانيا وإسرائيل وإيطاليا واليابان ونيوزيلندا ونيجيريا والنرويج وكوريا الجنوبية وسنغافورة. كما ساهمت شركات الذكاء الاصطناعي مثل OpenAI وMicrosoft وGoogle وAnthropic وScale AI في تطوير الدليل. (كوينتيليغراف)