المؤلف: Cao Jianfeng، باحث أول في معهد Tencent للأبحاث
تمثل المسؤولية عن حوادث الذكاء الاصطناعيالقضية الأساسية في عصر الذكاء الاصطناعي< /strong>
بعد "العقد الذهبي" للتعلم العميق، أصبح عصر الذكاء الاصطناعي أحد أهم وأهم الأشياء التكنولوجية في القرن الحادي والعشرين ، تنتج باستمرار العديد من التقنيات الجديدة والخدمات والتطبيقات، مثل Robotaxi والتطبيقات المصاحبة للذكاء الاصطناعي والروبوتات البشرية وما إلى ذلك. علاوة على ذلك، وبتوجيه من قانون التوسع، لا تزال تكنولوجيا الذكاء الاصطناعي الممثلة بنماذج كبيرة تعمل على تسريع تطورها، حتى أنها تثير اختلافات في مفاهيم التطوير مثل "تسريع الذكاء الاصطناعي مقابل محاذاة قيمة الذكاء الاصطناعي". توقع الخبراء والعلماء المشهورون في مجال الذكاء الاصطناعي وقت وصول الذكاء الاصطناعي العام وتصوروا التغييرات والتأثيرات في السنوات العشر القادمة. قد لا يتمكن الناس من التنبؤ بشكل كامل بالتغييرات والتأثيرات التي ستجلبها ثورة الذكاء الاصطناعي هذه، ولكن لا ينبغي لنا على الأقل أن نقلل من التأثير طويل المدى لتكنولوجيا الذكاء الاصطناعي.
في الوقت الحاضر، لا يؤدي تطوير وتطبيق تكنولوجيا الذكاء الاصطناعي إلى جعل المنتجات المختلفة تتمتع بذكاء مستقل بشكل متزايد فحسب، بل يؤدي أيضًا إلى تسريع انتقال الأشخاص من عصر الإنترنت إلى استخدام الخوارزميات والروبوتات ووكلاء الذكاء الاصطناعي (وكيل الذكاء الاصطناعي) مجتمع الذكاء الاصطناعي أو مجتمع الخوارزميات (مجتمع الخوارزميات) ، وبالتالي أصبحت الخوارزمية هي. العامل التقني الأساسي الذي يدعم تطوير الشبكات والرقمنة والذكاء. يمكن أن يؤدي هذا إلى تحسينات كبيرة في السلامة والكفاءة، ولكن ليس هناك ما يضمن القضاء على جميع الحوادث والمخاطر. لا توجد تكنولوجيا آمنة تمامًا، فبينما تقلل التكنولوجيا المخاطر وتزيلها في بعض الجوانب، فإنها قد تخلق مخاطر جديدة في جوانب أخرى. في السنوات الأخيرة، تزايدت حوادث الذكاء الاصطناعي التي أضرت بحقوق ومصالح الآخرين بسرعة، بدءًا من حوادث سلامة السيارات ذاتية القيادة والروبوتات الملموسة إلى التشخيص غير الصحيح لبرامج التشخيص والعلاج الخاصة بالذكاء الاصطناعي، إلى التمييز الخوارزمي واتخاذ القرارات غير العادلة في مختلف المجالات الآلية. أنظمة صنع القرار يمكن القول أن حوادث الذكاء الاصطناعي وانتهاكات الذكاء الاصطناعي أصبحت بشكل متزايد "الوضع الطبيعي الجديد" في مجتمع الذكاء الاصطناعي. وفقًا لرصد OCED لحوادث الذكاء الاصطناعي في جميع أنحاء العالم، زادت حوادث الذكاء الاصطناعي العالمية بسرعة منذ يناير 2014، ووصل العدد الإجمالي إلى 7195 اعتبارًا من ديسمبر 2023. على سبيل المثال، منذ أكتوبر 2024، واجهت منصة Chatbot AI Character AI جدلاً مثل التسبب في انتحار المراهقين الأمريكيين، وأصبحت مدعى عليها في قضيتين على الأقل ادعى المدعي أن Character AI بها عيوب في التصميم وهي منتج معيب، مما يتطلب من مطوريه تحمل مسؤولية المنتج.
اليوم، عندما أصبح تطبيق الذكاء الاصطناعي في كل مكان، يجب على الناس مواجهة قضايا المسؤولية القانونية لحوادث الذكاء الاصطناعي وانتهاكات الذكاء الاصطناعي. عندما تتسبب أنظمة الذكاء الاصطناعي في وقوع حوادث وأضرار، يجب أن يوفر القانون إغاثة عادلة وفعالة للضحايا. لكن السؤال هو: من يجب أن يكون مسؤولاً عن حوادث الذكاء الاصطناعي وانتهاكاته؟ قد تعمل أنظمة الذكاء الاصطناعي عالية الاستقلالية أو تتخذ القرارات بشكل مستقل دون سيطرة بشرية مباشرة أو تدخل أو إشراف. وهذا يعني أنه في سياق الذكاء الاصطناعي، مع تحول السلوكيات والقرارات ذات الصلة من البشر إلى الأنظمة الذكية، تبدأ الحوادث والأضرار أيضًا في التحول من كونها ناجمة عن البشر والسلوكيات البشرية إلى ناجمة عن أنظمة الذكاء الاصطناعي وسلوكياتهم. ويطرح هذا التحول تحديات أمام تخصيص المسؤوليات القانونية وتوليها. لا يكمن التحدي ذو الصلة في صعوبة تحديد الطرف المسؤول فحسب، بل أيضًا في الصعوبات الناجمة عن الاستقلالية وعدم القدرة على التفسير وعدم القدرة على التنبؤ وغيرها من خصائص نظام الذكاء الاصطناعي لإثبات الخطأ/العيب والسببية ومكونات المسؤولية الأخرى، و بل وأكثر من ذلك في صعوبة انتهاك الذكاء الاصطناعي، والصعوبات في كيفية تحمل المسؤولية (على سبيل المثال، كيفية اتخاذ إجراءات عقابية مثل الحظر السلوكي وإغلاق أنظمة الذكاء الاصطناعي).
هل الخيارات الثلاثة الجديدة للمسؤولية عن الضرر الناتج عن الذكاء الاصطناعيممكنة حقًا؟
ولتحقيق هذه الغاية، اقترح بعض الأشخاص إنشاء نظام جديد للمسؤولية عن انتهاك الذكاء الاصطناعي، والذي يتضمن ثلاثة خيارات تقريبًا.
الأولى هي الخطة الشخصية. ببساطة، فهي تمنح نظام الذكاء الاصطناعي حالة موضوع قانوني، بحيث يمكن لنظام الذكاء الاصطناعي أن يتحمل المسؤولية القانونية بشكل مباشر عن نفسه الإجراءات. إنها فكرة مغرية للغاية أن نتعامل مع أنظمة الذكاء الاصطناعي المستقلة والمعقدة باعتبارها كيانات قانونية مستقلة، وبالتالي نقل مسؤولية الضرر من البشر إلى الذكاء الاصطناعي. وكان المشرعون في الاتحاد الأوروبي قد اقترحوا إنشاء وضع قانوني خاص لـ "السايبورغ" للروبوتات المستقلة، لكنهم رفضوا الفكرة في النهاية. اقترح بعض العلماء أنه يمكن منح أنظمة الذكاء الاصطناعي وضع الشخص الاعتباري المماثل لشركة ذات مسؤولية محدودة (LLC) لحل مشكلة المسؤولية. يتصور الناس أنه مثلما قد تجعل النماذج الكبيرة "الشركات التي تضم شخصًا واحدًا" حقيقة واقعة، فإن التطور المستقبلي للذكاء الاصطناعي قد يجعل أيضًا "الشركات التي تضم شخصًا واحدًا" حقيقة واقعة، أي أن أنظمة الذكاء الاصطناعي تتمتع بالقدرة على العمل بشكل مستقل< /strong>< strong>(وكيل الذكاء الاصطناعي)يمكنه إدارة شركة بشكل مستقل دون الحاجة إلى أي موظفين بشريين.
والثاني هو مخططات المسؤولية الجديدة مثل المسؤولية بالنيابة والمسؤولية عالية المخاطر بدون خطأ، وفقًا لإحدى النظريات، خاصة في سياق الذكاء الاصطناعي البديل إذا كانت إحدى المؤسسات تستخدم نظام الذكاء الاصطناعي لتحل محل الموظفين البشريين، فيجب أن تتحمل مسؤولية غير مباشرة عن تصرفات ما يسمى "موظفي الذكاء الاصطناعي" لأن هذا يتوافق مع مبدأ التكافؤ الوظيفي. ومع استمرار زيادة قدرات النماذج الكبيرة، يمكننا أن نتصور مستقبلا حيث قد لا يكون لدى الأشخاص مساعدين شخصيين من الذكاء الاصطناعي يمكنهم التصرف نيابة عنهم فحسب، بل قد يعملون ويتعاونون أيضا مع ما يسمى "زملاء الذكاء الاصطناعي". ولذلك، يبدو من المعقول تحميل المشغلين المسؤولية بشكل غير مباشر عن تصرفات "موظفي الذكاء الاصطناعي". وهناك فكرة أخرى تتمثل في الاعتماد على مسار إشراف الذكاء الاصطناعي القائم على المخاطر، مما يسمح لمقدمي الخدمات والمالكين والمستخدمين والكيانات الأخرى بتحمل مسؤولية خالية من الأخطاء عن الأضرار الناجمة عن أنظمة الذكاء الاصطناعي عالية المخاطر. على سبيل المثال، تتلخص الفكرة الأساسية لقانون الذكاء الاصطناعي في الاتحاد الأوروبي في التركيز على الإشراف على سلامة أنظمة الذكاء الاصطناعي عالية المخاطر استناداً إلى تصنيف مخاطر الذكاء الاصطناعي، وحظر أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة.
الثالث هو الحل التأميني بالنسبة للأضرار الناجمة عن نظام الذكاء الاصطناعي المستقل تمامًا، يمكنك التفكير في استبدال آليات التعويض القائمة على التأمين تمامًا مثل التأمين الاجتماعي. ونظام المسؤولية عن الضرر، لأن التحايل على قانون الضرر من شأنه أن يتجنب العديد من الصعوبات التي نواجهها في تطبيق قواعد المسؤولية القائمة على الذكاء الاصطناعي. في الماضي، لم يكن من غير المألوف أن تحل آليات التعويض بدون خطأ محل تعويضات الضرر بشكل كامل، وكانت هناك ممارسات مماثلة في مجالات إصابات العمل، وحوادث المرور، والإصابات الطبية، وأضرار اللقاحات، وما إلى ذلك.
إنشاء نظام مسؤولية الضرر بالذكاء الاصطناعيمن الضروري التخلص من العديد من حالات سوء الفهم
ومع ذلك، فإن هذه الأنظمة الجديدة القضايا المتعلقة بمسؤولية الضرر في مجال الذكاء الاصطناعي. الخطة جذرية للغاية وصعبة لضمان التوازن بين الأمن والحرية، وهي لا تتعارض فقط مع الواقع الاجتماعي الذي لا نزال في المراحل الأولى من تطور ثورة الذكاء الاصطناعي وعصره. الذكاء الاصطناعي ضعيف، ولكنه يعتمد أيضًا على العديد من سوء فهم اللوم الذي يجب تجنبه.
الأسطورة الأولى: إلقاء اللوم على الذكاء الاصطناعي نفسه.
إن إسناد المسؤولية إلى نظام الذكاء الاصطناعي نفسه يعني التعامل مع نظام الذكاء الاصطناعي باعتباره موضوعًا قانونيًا. ومع ذلك، في هذه المرحلة، فإن الشخصية القانونية للذكاء الاصطناعي غير ضرورية من الناحية الأخلاقية وتتطلب مشاكل من الناحية القانونية. معظم الحجج المؤيدة للشخصية القانونية للذكاء الاصطناعي بسيطة للغاية ومعقدة للغاية، لأن الذكاء الاصطناعي موجود في مجال محدود بشكل غامض، ولا توجد حاليًا فئة ذات معنى يمكن التعرف عليها كموضوع قانوني بسبب العديد من الحجج هي اختلافات في "مغالطة الروبوت" (مثل الاعتقاد بأن الروبوتات ستكون مثل البشر تمامًا) وتستند إلى افتراضات خادعة حول التطور المستقبلي للذكاء الاصطناعي. في الوقت الحاضر، لا يعد منح الشخصية القانونية لأنظمة الذكاء الاصطناعي "علاجًا سحريًا" لحل مسؤولياتها "السلوكية"، بل قد يفتح "صندوق باندورا" ويثير سلسلة من القضايا القانونية والأخلاقية الجديدة، على وجه الخصوص، الشخصية القانونية للذكاء الاصطناعي سيؤدي بسهولة إلى أن الإساءة تصبح آلية لتجنب وتحويل المسؤوليات والالتزامات القانونية. بمعنى آخر، قد تكون الشخصية القانونية للذكاء الاصطناعي بمثابة "ثقب أسود قانوني"، كيان يمتص المسؤوليات القانونية للجهات الفاعلة البشرية دون أي أثر للمساءلة. باختصار، الذكاء الاصطناعي، باعتباره نشاطًا للبشر، مهما كان معقدًا أو ذكيًا أو متقدمًا، ليس سوى أداة لخدمة البشر وتحقيق أغراض إنسانية، مما يوضح بشكل كامل الحاجة إلى أن يكون بمثابة كائن قانوني وتعزيز رفاهية الإنسان. في الأساس، نحتاج إلى تطوير أداة الذكاء الاصطناعي (أداة الذكاء الاصطناعي) بدلاً من ما يسمى بالذكاء الاصطناعي الذاتي القريب تمامًا من البشر.
الخرافة الثانية: ربط مفهوم كتابة مخاطر الذكاء الاصطناعي في القانون العام بقواعد المسؤولية عن الضرر في الذكاء الاصطناعي.
تتمثل إحدى الأفكار الرئيسية لتنظيم الذكاء الاصطناعي العالمي في اعتماد "التنظيم القائم على المخاطر" واعتماد إشراف متباين لأنظمة الذكاء الاصطناعي ذات مستويات مختلفة من المخاطر. ويعتبر قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي ممثلاً نموذجيًا لهذه الفكرة، حيث تنقسم أنظمة الذكاء الاصطناعي وفقًا لمستوى المخاطر إلى أربع فئات: الذكاء الاصطناعي ذو المخاطر غير المقبولة، والذكاء الاصطناعي عالي المخاطر، والذكاء الاصطناعي المحدود المخاطر، والذكاء الاصطناعي ذو المخاطر الدنيا، والتركيز على الذكاء الاصطناعي عالي المخاطر. الذكاء الاصطناعي متطلبات والتزامات المشغلين المعنيين (المقدمين، الناشرين، وما إلى ذلك). من بينها، معيار الحكم على الذكاء الاصطناعي عالي الخطورة هو أن نظام الذكاء الاصطناعي يشكل خطرًا كبيرًا لإلحاق الضرر بصحة الأشخاص الطبيعيين وسلامتهم وحقوقهم الأساسية. وبموجب هذا النهج التنظيمي، يميل الناس إلى ربط مستوى مخاطر أنظمة الذكاء الاصطناعي بمبادئ المسؤولية، مثل ربط الذكاء الاصطناعي عالي المخاطر بالمسؤولية الخالية من الخطأ، مع ربط الذكاء الاصطناعي منخفض المخاطر أو الذكاء الاصطناعي غير عالي المخاطر بالمسؤولية عن الخطأ أو الخطأ. المسؤولية الظنية مرتبطة. يعد "مشروع اللائحة التنظيمية بشأن المسؤولية عن عمليات الذكاء الاصطناعي" الذي اقترحه مشرعو الاتحاد الأوروبي سابقًا ممثلًا نموذجيًا لفكرة الإسناد هذه. ومع ذلك، فمن غير المعقول الربط بشكل موحد ومطابقة كتابة الذكاء الاصطناعي القائمة على المخاطر مع قواعد المسؤولية المختلفة بموجب الإطار التنظيمي للقانون العام، وهو في الواقع أمر في غير محله. والسبب الرئيسي هو أن الذكاء الاصطناعي عالي الخطورة لا يمكن مقارنته ببساطة بأشياء أو أنشطة خطيرة بشكل غير عادي تستهدفها نظريات المسؤولية التقليدية عن عدم الخطأ؛ بل على العكس من ذلك، قد يؤدي إدخال الذكاء الاصطناعي إلى تغيير فهم الناس للمناطق الخطرة من المعروف أن ما يسمى بالذكاء الاصطناعي عالي الخطورة قد يكون في الواقع أكثر أمانًا من الأشياء أو الأنشطة المماثلة التي يتحكم فيها ويديرها البشر. بعبارة أخرى، تم تصميم ما يسمى بالذكاء الاصطناعي عالي المخاطر في الواقع لتقليل المخاطر، وزيادة السلامة، وهو في الواقع أكثر أمانًا من الأنشطة البشرية التي يحل محلها.
الأسطورة الثالثة: الإهمال في تقييم "سلوك" نظام الذكاء الاصطناعي.
عندما يتسبب نظام الذكاء الاصطناعي في وقوع حادث أو ضرر، فإن كيفية تقييم "سلوك" أو أداء نظام الذكاء الاصطناعي تعد مشكلة أساسية. اقترح بعض الأشخاص تطبيق مبدأ الإهمال على نظام الذكاء الاصطناعي نفسه، وعلى وجه التحديد، قياسًا على معيار "الشخص العقلاني" المستخدم للحكم على ما إذا كان الفاعل البشري مهملاً، يمكن استخدام معيار "الروبوت العقلاني" للحكم على ذلك. الحكم على ما إذا كان نظام الذكاء الاصطناعي يعاني من ما يسمى "الإهمال"، وذلك للحد من مسؤولية الجهات ذات الصلة عن أنظمة الذكاء الاصطناعي. على سبيل المثال، في القضية السابقة في الولايات المتحدة، في قضية Nilsson v. Gen. Motors LLC، رفع المدعي دعوى قضائية ضد شركة السيارات ذاتية القيادة الأمريكية Cruise، لكنه لم يقدم مطالبة بالمسؤولية عن المنتج، ولكنه اختار نظرية تستند إلى بسبب الإهمال: ادعى صاحب الدراجة النارية أن سيارة كروز الأوتوماتيكية كانت تسير بطريقة مهملة لدرجة أنها دخلت إلى حارة مجاورة وأوقعته أرضاً دون مراعاة للمركبات المارة. قد تكون هذه هي المرة الأولى في التاريخ التي يتم فيها اتهام روبوت رسميًا بعملية إهمال - وهي تهمة الضرر التي كانت مخصصة في السابق للممثلين البشريين. ومع ذلك، يجب رفض فكرة الإسناد هذه في أي وقت. حتى لو كان تعريف الإهمال في قانون الضرر الحديث يميل إلى أن يكون موضوعيًا، فإن مفهوم الإهمال يشير دائمًا إلى سلوك الفاعلين البشريين ويرتبط بالإنسان. من غير الواقعي تطبيق معيار الإهمال على "سلوك" أو أداء نظام الذكاء الاصطناعي. من المتوقع أنه مع زيادة استقلالية أنظمة الذكاء الاصطناعي، في العديد من حوادث الذكاء الاصطناعي في المستقبل، ستحتاج المحاكم إلى تقييم المستخدم(مثل السائق) لقد تغير السلوك أكثر في سلوك تقييم أنظمة الذكاء الاصطناعي(مثل أنظمة القيادة الذاتية)يجب النظر إلى "سلوك" أو أداء أنظمة الذكاء الاصطناعي من منظور عيوب المنتج وليس من منظور التقييم من منظور الخطأ. يتطلب هذا منا أن نقوم على الفور بتحديث نظام مسؤولية المنتج الخاص بالمنتجات التقليدية في العصر الصناعي.
الأسطورة الرابعة: استبدال المساءلة بالكيانات التي تنشر وتشغل أنظمة الذكاء الاصطناعي بناءً على مبدأ التكافؤ الوظيفي.
ينص مبدأ التكافؤ الوظيفي على أنه إذا كان استخدام التقنيات المستقلة مثل أنظمة الذكاء الاصطناعي يعادل وظيفيًا توظيف موظفين مساعدين بشريين ويسبب الضرر، فإن المشغل ( مسؤولية المشغلين في النشر ويجب أن يتوافق استخدام هذه التكنولوجيا مع آلية المسؤولية بالنيابة الحالية للمدير (المدير) عن مساعده البشري (المساعد البشري)، أي أن مشغل نظام الذكاء الاصطناعي يتحمل المسؤولية بالنيابة عن الأضرار الناجمة عن الذكاء الاصطناعي النظام. ومع ذلك، فإن هذا الخط من التفكير يثير المتاعب. إن تشبيه المسؤوليات على أساس التكافؤ الوظيفي قد يبدو معقولا للوهلة الأولى، لكنه في الواقع غير ممكن. علاوة على ذلك، فإن نظرية التكافؤ الوظيفي تركز بشكل سطحي فقط على التأثير البديل للتكنولوجيا، ولكنها تفشل في الحصول على نظرة ثاقبة حول خلق المخاطر الحقيقية والتحكم وراء هذه الظاهرة التكنولوجية. على سبيل المثال، في عصر ما قبل الذكاء الاصطناعي، استخدمت المصانع أجهزة آلية لتحل محل العمال، وإذا تعطل الجهاز الآلي وتسبب في أضرار، فإن الضحية قد يفكر في رفع مسؤولية المنتج ضد الشركة المصنعة للجهاز الآلي، بدلا من السماح للمصنع بتحمل المسؤولية غير المباشرة. للجهاز الآلي. على الرغم من أن ملفات تعريف المخاطر الخاصة بأنظمة الذكاء الاصطناعي قد تختلف، إلا أنها ببساطة أدوات أكثر تقدمًا وأكثر ذكاءً من أجهزة الأتمتة التقليدية، مما يعني أن المرء بحاجة إلى تجاوز ضباب التكافؤ الوظيفي وفحص الموضوعات (بشكل عام، أي مقدمي ومستخدمي الأدوات) التي تنشئ أو مخاطر السيطرة. لأن الناس في نهاية المطاف يريدون فقط أن يتحمل شخص ما المسؤولية عن الأضرار التي تسببها أنظمة الذكاء الاصطناعي، بدلاً من مساءلة أنظمة الذكاء الاصطناعي بنفس الطريقة التي تتم بها محاسبة الجهات الفاعلة البشرية.
نظام المسؤولية التقصيرية في عصر الذكاء الاصطناعيأين الطريق أمامنا؟
على الرغم من أن الذكاء الاصطناعي يفرض تحديات على التطبيق الفعال لنظام المسؤولية عن الضرر الحالي، إلا أن هذا لا يعني أننا بحاجة إلى البدء من الصفر واعتماد نظام مسؤولية جديد. على العكس من ذلك، في هذه المرحلة، من خلال إجراء التعديلات اللازمة على قواعد المسؤولية التقصيرية الحالية مثل المسؤولية عن الخطأ والمسؤولية عن المنتج، يمكننا تكييف نظام المسؤولية التقصيرية مع احتياجات التطوير في عصر الذكاء الاصطناعي وتحقيق التوازن بين السلامة والابتكار .
أولاً، الالتزام بالوضع القانوني للذكاء الاصطناعي وتنفيذ المسؤولية البشرية في حوادث الذكاء الاصطناعي وانتهاكات الذكاء الاصطناعي. بدءًا من الواقع التقني، بغض النظر عن مدى تقدم وذكاء نظام الذكاء الاصطناعي الحالي، يحتاج دائمًا إلى شخص ما تطويره ووضعه موضع الاستخدام. على وجه التحديد، على الرغم من أن سلسلة قيمة الذكاء الاصطناعي معقدة، إلا أنه يمكننا التمييز بوضوح نسبيًا بين مجموعتين: معسكر المزودين ومعسكر المستخدم. وهذا التمييز منطقي من الناحية القانونية لأنه داخل كل مجموعة (على سبيل المثال، بين المنتجين والموردين والمالكين والمستخدمين)، يمكن إسناد المسؤولية بسهولة نسبية إلى أحد أعضائها من خلال الصكوك التعاقدية أو تقاسمها بين عدة أعضاء. على سبيل المثال، يميز قانون الذكاء الاصطناعي في الاتحاد الأوروبي بين مقدمي الذكاء الاصطناعي ومستخدمي الذكاء الاصطناعي (ناشر أنظمة الذكاء الاصطناعي)، ويركز على فرض الالتزامات والمسؤوليات ذات الصلة على هذين النوعين من المواضيع. لذلك، لغرض المسؤولية عن الضرر، من الضروري والمهم وضع معايير لتحديد وتحديد مقدمي الذكاء الاصطناعي ومستخدميه.
ثانيًا، ابتكار نظام مسؤولية المنتج لعصر الذكاء الاصطناعي على الرغم من أنه في العديد من سيناريوهات الاستخدام المحددة لتطبيقات الذكاء الاصطناعي، لا يزال المستخدمون بحاجة إلى الوفاء ببعض التزامات الرعاية (مثل الاستخدام وفقًا للأغراض المقصودة، وضمان جودة البيانات، والمراقبة، والصيانة، وما إلى ذلك)، إلا أنه يمكنهم التحكم في الاستخدام ومع ذلك، على المدى الطويل، سيتم تقليل واجب الرعاية على المستخدم، مما يعني أنه قد يتم أيضًا تقليل مسؤولية المستخدم وفقًا لذلك. مع استمرار ضعف أدوار وسيطرة مالكي ومستخدمي الذكاء الاصطناعي، قد تدخل مسؤولية مقدمي الذكاء الاصطناعي مركز الصدارة في قانون المسؤولية عن الضرر في المستقبل. وباعتبارها نوعًا جديدًا من المنتجات "الذكية"، تتطلب أنظمة الذكاء الاصطناعي ابتكارات ضرورية في نظام مسؤولية المنتج الحالي، بما في ذلك مفهوم المنتج، وتعريف المنتج، والعيوب، والأضرار القابلة للتعويض، والسببية، وعبء الإثبات، وما إلى ذلك. على سبيل المثال، فيما يتعلق بتنظيم الذكاء الاصطناعي، قام المشرعون في الاتحاد الأوروبي، أثناء صياغة أول مشروع قانون شامل للذكاء الاصطناعي في العالم، بمراجعة شاملة لتوجيه الاتحاد الأوروبي بشأن المسؤولية عن المنتجات الذي تم تقديمه في عام 1985، بهدف إنشاء لائحة جديدة لنظام المسؤولية عن المنتجات الرقمية والذكاء الاصطناعي . وفي الوقت نفسه، لا يزال المشرعون في الاتحاد الأوروبي يعدون "توجيه مسؤولية الذكاء الاصطناعي" (توجيه مسؤولية الذكاء الاصطناعي)، والذي يهدف إلى وضع قواعد أكثر وضوحا وأكثر قابلية للتنفيذ لمسؤوليات مستخدمي الذكاء الاصطناعي.
ثالثًا، يجب استخدام التأمين كآلية تكميلية مفيدة لإطار مسؤولية الذكاء الاصطناعي، وليس كآلية بديلة. كأداة لإدارة المخاطر، يلعب التأمين دورًا مهمًا لا يمكن تجاهله في تعزيز التكامل الآمن للتكنولوجيات الجديدة في المجتمع، مثل توفير الأمن المالي لتحفيز الابتكار وضمان التنفيذ الآمن للتكنولوجيات الجديدة. ومع التعديلات المناسبة والتدخل التنظيمي، يمكن للتأمين أن يستمر في دعم الابتكار التكنولوجي وتوفير الحماية اللازمة للمجتمع. ويمكن استخدام أنظمة التأمين الحالية لتنظيم أنظمة الذكاء الاصطناعي، ولكن ليست هناك حاجة لتطوير بوليصة تأمين مخصصة أو شاملة للذكاء الاصطناعي. وفي الوقت نفسه، ينبغي لنا أن نكون حذرين بشأن تقديم سياسات التأمين الإلزامية لتطبيقات الذكاء الاصطناعي، حتى لا تأتي بنتائج عكسية وتعرقل تعزيز وتعميم تكنولوجيا الذكاء الاصطناعي التي يمكن أن تحقق فوائد اقتصادية واجتماعية كبيرة.
رابعًا، بالإضافة إلى نظام المسؤولية عن انتهاك الذكاء الاصطناعي، نحتاج إلى الاهتمام بالمخاطر الأمنية للذكاء الاصطناعي المتطور والاستجابة لها بفعالية. فيما يتعلق بحوكمة الذكاء الاصطناعي، تعد قواعد المسؤولية عن الضرر في مجال الذكاء الاصطناعي ضرورية، ولكن دورها محدود. وعلى الرغم من قدرتها على التعامل بشكل فعال مع مخاطر الضرر الذي يلحق بالحقوق والمصالح الشخصية وحقوق الملكية للأشخاص بسبب أنظمة الذكاء الاصطناعي، إلا أنها ليست كذلك مناسبة للذكاء الفائق، وما إلى ذلك. من الصعب أن تلعب قواعد المسؤولية عن الضرر في الذكاء الاصطناعي دورًا جوهريًا في المخاطر الشديدة أو المخاطر الكارثية التي قد يجلبها الذكاء الاصطناعي الحدودي. في ظل اتجاه التطوير المتسارع للذكاء الاصطناعي، أصبح الذكاء الفائق (الذكاء الفائق) يلوح في الأفق بالفعل، وتحظى مخاطره الأمنية المحتملة باهتمام متزايد من الحكومات والمجتمعات البحثية والصناعات في جميع أنحاء العالم. وأشار خبراء الذكاء الاصطناعي الأجانب إلى أنه على المدى الطويل، يقلل معظم الناس من مدى خطورة المخاطر الأمنية للذكاء الفائق. ولذلك، تدعو بنشاط إلى الذكاء الاصطناعي للرفاهية وتطويره وبنائه (الذكاء الاصطناعي للرفاهية) واستخدام الذكاء الاصطناعي لتحقيق أقصى قدر من الرفاهية الشخصية والاجتماعية والبيئية، و ومن المهم بشكل خاص دمج مفهوم المواءمة بين الإنسان والآلة، بما في ذلك مواءمة قيمة الذكاء الاصطناعي، في تطوير الذكاء الفائق.
محتوى المقال مخصص فقط لـ مناقشة أكاديمية ولا تمثل آراء صاحب العمل
[1] تشنغ زيفنغ: "التحديث التشريعي بشأن المسؤولية عن منتجات الذكاء الاصطناعي"، منشور في "العلوم القانونية" ( مجلة جامعة الشمال الغربي للعلوم السياسية والقانون)" 2024 العدد الرابع لهذا العام
[2] Cao Jianfeng: "محاذاة الإنسان والحاسوب في سياق كبير النماذج"، منشورة في "مجلة العلوم الاجتماعية الصينية"
https://www.cssn.cn/skgz/bwyc/202410/t20241029_5797216.shtml
[3] https://www.youtube.com/watch?v=559VdVIz5V4
[ 4] https://eur-lex.europa.eu/eli /dir/2024/2853/oj
[5] https://mp .weixin.qq.com/s/HKbVSvQzULG13BSLCfVpBQ
[6] https://darioamodei.com/machines-of-loving-grace
< p style="text-align: left;">[7] https: //ia.samaltman.com/
[8]https://www .washingtonpost.com/documents/028582a9-7e6d-4e60-8692-a061f4f4e745. pdf