المصدر: محامي Xiao Saفي الشهر الماضي، أصدرت هيئة تنظيم الخصوصية الإيطالية Garante نتائج مفادها أن OpenAI هناك واحد أو أكثر انتهاكات لوائح الاتحاد الأوروبي، والتكنولوجيا التي تستخدمها ChatGPT لجمع بيانات المستخدم قد انتهكت قوانين الخصوصية في البلاد. ChatGPT، الذي أطلق جنون الذكاء الاصطناعي التوليدي، وقع مرة أخرى في جدل حول الامتثال للبيانات.
تمثل البيانات وقوة الحوسبة جوهر الذكاء الاصطناعي التوليدي. إن أمن البيانات هو القضية الأساسية للامتثال للذكاء الاصطناعي التوليدي. فخلف الاعتماد المتزايد للذكاء الاصطناعي على البيانات، يقوم الذكاء الاصطناعي التوليدي بجمع البيانات سرا، مما يؤدي إلى عواقب وخيمة على مبادئ "الموافقة المستنيرة" وتحدي "الحد الأدنى الضروري". وفي الوقت نفسه، يحتوي الذكاء الاصطناعي التوليدي على مخاطر كبيرة لتسرب البيانات أثناء مرحلة التشغيل. وهذا يشكل تهديدا خطيرا لحماية المعلومات الشخصية. اليوم، سيتحدث فريق Sajie عن التحديات ومتطلبات الامتثال التي يجلبها الذكاء الاصطناعي التوليدي إلى أمن المعلومات الشخصية.
01جمع واستخدام مجموعة البيانات< /strong>
وفقًا لمصدر البيانات، يمكن تقسيم البيانات التي تتضمن معلومات شخصية بشكل تقريبي إلى مجموعة بيانات تتضمن معلومات شخصية وبيانات تم تحميلها بواسطة المستخدمين وتتضمن بيانات معلومات شخصية.
يعتمد الذكاء الاصطناعي التوليدي بشكل كبير على البيانات ويتطلب كمية كبيرة من البيانات لتلبية متطلبات التدريب. وهذا يحدد أن الذكاء الاصطناعي التوليدي غالبًا ما يجمع ويعالج البيانات العامة وغير العامة بشكل نشط، ويمكن أن يصل حجم بيانات ما قبل التدريب عادةً إلى مليارات أو حتى عشرات المليارات من المعلمات. إذا كانت هناك معلومات شخصية، وفقًا للمادة 27 من "قانون حماية المعلومات الشخصية"، "يجوز لمعالجي المعلومات الشخصية معالجة المعلومات الشخصية التي يكشف عنها الفرد بنفسه أو التي تم الكشف عنها قانونيًا من قبل الآخرين، ضمن نطاق معقول؛ ما لم يرفض الفرد صراحة." إذا قامت معالجات المعلومات بالكشف عن معلومات شخصية وكان لها تأثير كبير على الحقوق والمصالح الفردية، فيجب عليهم الحصول على موافقة فردية وفقًا لأحكام هذا القانون." المادة 7 من "التدابير المؤقتة للإدارة "الذكاء الاصطناعي التوليدي" يؤكد أيضًا على أن "توفير خدمة الذكاء الاصطناعي التوليدي" يجب على مقدمي الخدمات (المشار إليهم فيما يلي باسم مقدمي الخدمة) إجراء التدريب المسبق والتدريب على التحسين وأنشطة معالجة بيانات التدريب الأخرى وفقًا للقانون، والامتثال للأحكام التالية : (3) إذا كان الأمر يتعلق بمعلومات شخصية، فيجب الحصول على موافقة فردية أو الحصول على ظروف أخرى تتفق مع القوانين واللوائح الإدارية. "ومع ذلك، نظرًا لكبر حجم بيانات قاعدة البيانات، فمن الصعب تحقيق شرط الحصول على موافقة موضوعات المعلومات واحدا تلو الآخر.
نظرًا لصعوبة الحصول على موافقة صاحب المعلومات، فهل من المقبول حذف المعلومات الشخصية مباشرة في قاعدة البيانات؟ هناك صعوبات هنا أيضا. من ناحية، يوجد حاليًا نقص في خوارزميات فعالة لتنظيف المعلومات الشخصية، وهناك مفارقة فنية معينة؛ من ناحية أخرى، فإن النطاق الضخم لقاعدة البيانات يجعل التنظيف اليدوي للبيانات مكلفًا للغاية، وهناك خطر حدوث ثانوي تسرب المعلومات الشخصية. أشارت الدراسات إلى أن تقنية تنظيف البيانات القائمة على التعرف على الكيان المسمى لديها معدل استرجاع يبلغ 97% (الاسم) و80% (رقم وحدة التمريض) من البيانات الصحية السريرية. بمعنى آخر، عندما توجد معلومات شخصية في مجموعات وقواعد بيانات، يكون تأثير تنظيف المعلومات الشخصية ضعيفًا أثناء مرحلة التدريب، وتتعرض شركات التكنولوجيا لمخاطر الامتثال. يذكر فريق Sajie أنه عندما تستخدم شركات التكنولوجيا البيانات المجمعة للتدريب، يجب عليها محاولة تحديد مجموعات البيانات التي لا تحتوي على معلومات شخصية، وفي الوقت نفسه تحسين دقة خوارزمية تحديد الهوية قدر الإمكان وإخفاء هوية البيانات المحددة أو اقتصاصها. معلومات شخصية. يعد اعتماد آلية التصفية الآلية وآلية المراجعة اليدوية من جانب التدقيق أيضًا أحد إجراءات الامتثال التي لها مزايا أكثر من عيوبها.
02جمع واستخدام المعلومات التي تم تحميلها بواسطة المستخدمين
يمكن تقسيم البيانات التي تم تحميلها بواسطة المستخدم إلى البيانات التي يغذيها المستخدمون بشكل نشط" و"البيانات التي يغذيها المستخدمون بشكل سلبي". تشير ما يسمى بالبيانات التي يغذيها المستخدمون بشكل نشط إلى بيانات محددة تم تحميلها من قبل المستخدمين للحصول على تعليقات من الذكاء الاصطناعي التوليدي. تشير ما يسمى بالبيانات التي يغذيها المستخدمون بشكل سلبي إلى البيانات التي تم تحميلها من قبل المستخدمين لاستخدام التطبيقات أو الوظائف الأخرى للجهاز التي تحتوي على خوارزميات الذكاء الاصطناعي التوليدي.
عادةً ما يتطلب تشغيل الذكاء الاصطناعي التوليدي من المستخدمين "تغذية" بيانات معينة بشكل نشط، ثم التحليل وتقديم التعليقات بناءً على الخوارزميات. خلال هذه العملية، سيتم تسجيل بيانات التفاعل بين الإنسان والحاسوب وتخزينها وتحليلها، وقد تصبح بيانات للتدريب على استبدال الخوارزمية النموذجية. ومع ذلك، في السياقات التي يفشل فيها مزود الخدمة في الوفاء بالتزاماته المطلوبة ويفتقر المستخدم إلى الوعي الأمني، فمن المرجح أن تتضمن البيانات التي يغذيها المستخدم معلومات شخصية مثل المظهر الشخصي للمستخدم والعنوان ومعلومات الاتصال. وتؤدي نماذج الخدمة المعقدة وسيناريوهات التطبيق المتنوعة للذكاء الاصطناعي التوليدي إلى تفاقم هذه المخاطر. مع تطور التكنولوجيا الرقمية، ترتبط هويات المستخدمين ارتباطًا وثيقًا بمعلومات الاتصال الخاصة بهم، وبيانات الوجه، وبصمات الأصابع، وما إلى ذلك، وغالبًا ما يجمع الذكاء الاصطناعي التوليدي كمية كبيرة من المعلومات الشخصية. على سبيل المثال، يغطي نطاق تطبيق أحد برامج chatbot المعروفة التابعة لشركة الذكاء الاصطناعي العديد من المجالات مثل التدريس والبحث العلمي والمالية والإعلام والترفيه، وتحتوي سجلات الدردشة الخاصة بالمستخدمين به على كمية كبيرة من المعلومات الحساسة، مثل مثل الهوية الشخصية والتفضيلات والعادات وما إلى ذلك. إذا وقعت هذه البيانات في الأيدي الخطأ، فسوف تؤدي إلى انتهاكات الخصوصية الشخصية وسرقة الهوية والاحتيال المالي وغيرها من المخاطر، مما يتسبب في ضرر مباشر للمستخدمين.
بالإضافة إلى ذلك، يتمتع الذكاء الاصطناعي التوليدي بمجموعة واسعة من سيناريوهات الاستخدام وغالبًا ما يتم تضمينه في التطبيقات الرئيسية وحتى الأجهزة. على سبيل المثال، في يناير من هذا العام، أعلن متصفح معين عن تقديم ثلاث قدرات رئيسية للذكاء الاصطناعي التوليدي، وأطلقت شركة معينة أول هاتف ذكي في العالم مزود بتقنية الذكاء الاصطناعي التوليدي. وحتى لو لم يتم استخدام تقنية الذكاء الاصطناعي التوليدي، فسيقوم المستخدمون حتماً بإنشاء البيانات وتحميلها عند استخدام التطبيقات وحتى الأجهزة ذات الصلة، ومن المرجح أن تحتوي البيانات على محتوى يشتبه في أنه معلومات شخصية.
تنص المادة 11 من "التدابير المؤقتة لإدارة الذكاء الاصطناعي التوليدي" على أنه "يجب على مقدمي الخدمات الوفاء بالتزاماتهم لحماية معلومات إدخال المستخدمين وسجلات الاستخدام وفقًا للقانون، ولا يجوز لهم جمع معلومات غير ضرورية المعلومات الشخصية ولا يجوز الاحتفاظ بها بشكل غير قانوني" لا يجوز تقديم معلومات إدخال المستخدم وسجلات الاستخدام التي يمكن أن تحدد هوية المستخدم للآخرين بشكل غير قانوني. يجب على مقدمي الخدمة قبول ومعالجة طلبات الأفراد للوصول والنسخ والتصحيح والتكملة والحذف على الفور معلوماتهم الشخصية وفقًا للقانون. طلب." وقد وضعت القوانين واللوائح مثل "قانون حماية المعلومات الشخصية" و"اللوائح المتعلقة بحماية المعلومات الشخصية للأطفال على الإنترنت" أحكامًا إلزامية بشأن فترة تخزين البيانات. وبناء على ذلك، فمن الممكن التساؤل عما إذا كانت هذه المعلومات التي يشتبه في أنها معلومات شخصية يغذيها المستخدمون بشكل نشط يمكن تسجيلها وتخزينها وتخزينها من قبل مزود الخدمة.
وفي الوقت نفسه، هناك بعض الجدل حول إمكانية استخدام هذا النوع من المعلومات لتدريب الخوارزميات. تؤكد المادة 7 من "التدابير المؤقتة لإدارة الذكاء الاصطناعي التوليدي" على أن "مقدمي خدمات الذكاء الاصطناعي التوليدي (المشار إليهم فيما يلي باسم مقدمي الخدمة) يجب أن يقوموا بتنفيذ التدريب المسبق والتدريب الأمثل وأنشطة معالجة بيانات التدريب الأخرى وفقًا للقانون ، والامتثال للأحكام التالية:... (III) ) تتضمن معلومات شخصية أو موافقة فردية أو ظروف أخرى تتوافق مع القوانين واللوائح الإدارية. يجب الحصول على تصريح المستخدم الذي تم الحصول عليه للاستخدام الأول لا يكفي لتغطية متطلبات استخدام البيانات في مرحلة التدريب على الخوارزمية، ويجب أن يكون لدى شركات التكنولوجيا تصريح استخدام أكثر وضوحًا، أو لا يمكن استخدام هذا النوع من البيانات إلا في ظروف أخرى تتوافق مع أحكام القوانين واللوائح، وإلا فقد ينتهك أحكام القانون المدني ذات الصلة القانون والقانون الإداري وحتى القانون الجنائي. ومع ذلك، حتى لو تم الحصول على إذن صريح من المستخدمين، فهناك خطر كبير من تسرب البيانات أثناء مرحلة تشغيل الذكاء الاصطناعي التوليدي. ولا يمكن لشركات التكنولوجيا استخدام بيانات المعلومات الشخصية إلا إذا ضمنت أمن البيانات.
من أجل تحسين جودة الإنتاج، ستبذل العديد من شركات التكنولوجيا قصارى جهدها لإثراء الاحتفاظ بالبيانات وتحسين تجميع البيانات. على سبيل المثال، تنص المادة 2 من "سياسة الخصوصية" الخاصة بشركة الذكاء الاصطناعي على ما يلي: "يجوز لنا تجميع المعلومات الشخصية أو إلغاء تحديدها بحيث لا يمكن استخدامها لتحديد هويتك بعد الآن، واستخدام هذه المعلومات لتحليل خدماتنا. الفعالية والتحسين والفعالية إضافة ميزات لخدماتنا، وإجراء الأبحاث وغيرها من الأغراض المماثلة." وهذا حل ممكن، ولكن وفقًا لمبدأ "الموافقة المستنيرة"، يتحمل مقدم الخدمة التزام الإبلاغ، أي أن مقدم الخدمة يحتاج إلى البيانات الأشياء التي سيتم جمعها، يجب توضيح الغرض من البيانات والمخاطر المحتملة لموضوع المعلومات مسبقًا، ولا يمكن إجراء التجميع إلا بعد الحصول على موافقة موضوع المعلومات. وفي الوقت نفسه، ينبغي لشركات التكنولوجيا أن توفر للمستخدمين خيار رفض استخدام معلوماتهم الشخصية، بدلاً من تحويل هذا الشرط إلى شرط إشعار صارم وإلزامي. بالإضافة إلى ذلك، ووفقًا لمبدأ "الحد الأدنى الضروري"، يجب جمع المعلومات الشخصية التي تجمعها شركات التكنولوجيا بطريقة ملائمة لتحقيق الهدف ولها أقل تأثير، ويجب جمع المعلومات الشخصية للمستخدم بشكل واضح ومحدد.
03اكتب في النهاية
بالمقارنة مع الذكاء الاصطناعي التقليدي، غالبًا ما يتمتع الذكاء الاصطناعي التوليدي بمبادرة أقوى لجمع المعلومات ومخاطر أعلى لإساءة استخدام البيانات. يحتاج الذكاء الاصطناعي التوليدي إلى تعزيز قدرات فهم السياق بشكل مستمر من خلال مجموعات ومجموعات بيانات واسعة النطاق للترقية وتحسين نفسه بشكل مستمر، في جميع مراحل تشغيل الذكاء الاصطناعي التوليدي بما في ذلك جمع البيانات وتخزين البيانات ومعالجة البيانات وتوليد البيانات. تنطوي على الكثير من المعلومات الشخصية وتولد العديد من المخاطر القانونية ومخاطر الامتثال. وفي عصر البيانات الضخمة، أدى عدم وضوح دلالة المعلومات الشخصية وحدودها، والتأخر في القوانين واللوائح، والسعي لتحقيق الإنجازات التكنولوجية، إلى تجاهل بعض شركات التكنولوجيا لمثل هذه المخاطر. يذكر فريق Sajie أن الامتثال هو الشرط الأساسي والضمان للتنمية الصحية لهذه الصناعة. أثناء سعيك لتحقيق النجاح، لا تستخف بالخطوط الحمراء القانونية.