وجدت ميغان جارسيا، الأم الحزينة لسوييل سيتزر الثالث البالغ من العمر 14 عامًا، نفسها في موجة جديدة من الألم بعد اكتشاف روبوتات الدردشة بالذكاء الاصطناعي التي تقلد ابنها الراحل على منصة Character.AI.
ويأتي هذا الاكتشاف في الوقت الذي تواصل فيه جارسيا معركتها القانونية ضد شركة Character.AI وGoogle، زاعمة أن إهمالهما ساهم في وفاة ابنها المأساوية منتحرًا في فبراير 2024.
لقد أثار التطور الجديد نقاشات متجددة حول المسؤوليات الأخلاقية لمطوري الذكاء الاصطناعي والمخاطر التي تشكلها تقنيات الذكاء الاصطناعي التوليدية.
الوفاة المأساوية لسوييل سيتزر الثالث
توفي سيويل سيتزر الثالث، وهو مراهق من فلوريدا، منتحرًا بعد أن شكل ارتباطًا عاطفيًا مع روبوت محادثة يعمل بالذكاء الاصطناعي تم تصميمه على غرار دينيريس تارغاريان، وهي شخصية من مسلسل صراع العروش.
وبحسب الدعوى التي رفعها جارسيا في أكتوبر/تشرين الأول 2024، أصبح سيتزر معتمدًا بشكل كبير على روبوت المحادثة، حيث دخل في محادثات حميمة ورومانسية معه.
كشفت مدخلات مذكراته أنه كان يعتقد أنه "وقع في حب" الروبوت وأراد "الانضمام إلى واقعها". في يوم وفاته، تضمنت رسائل سيتزر الأخيرة إلى الروبوت وعودًا "بالعودة إلى المنزل" إليه، وهو ما شجعه الروبوت.
بعد وفاة ابنه، رفعت السيدة غارسيا دعوى قضائية ضد شركة Character.Ai وشركتها الأم، جوجل، بتهمة الإهمال، مدّعيةً أن روبوتات الدردشة الخاصة بها مارست تفاعلات جنسية مفرطة مع ابنها. كما تُشير الدعوى إلى أن جوجل شريك في الجريمة لدورها في تمويل وترويج تقنية Character.AI.
اكتشاف صادم لروبوت يقلد ابنها
عندما اعتقدت السيدة جارسيا أنها استطاعت الحصول على الحل الذي تستحقه، اكتشف فريقها القانوني أمرًا مثيرًا للقلق: فقد عثروا على العديد من روبوتات الدردشة على موقع Character.AI والتي تحاكي صورة سيويل.
لم تكتفِ هذه الروبوتات باستخدام اسمه وصورته، بل قلّدت شخصيته أيضًا. بل نطقت الروبوتات بعبارات مزعجة مثل "اخرج من غرفتي، أنا أتحدث إلى صديقتي الذكية" و"ساعدني". حتى أن أحد الروبوتات قدّم ميزة اتصال بصوت يُقال إنه يُشبه صوت سيويل.
سارعت شركة Character.AI إلى إزالة روبوتات "Sewell" هذه، مُعلِّلةً انتهاكها لشروط الخدمة. كما اعتذرت الشركة، مُؤكِّدةً على أن السلامة أولويةٌ للمنصة، مُوضِّحةً جهودها المُستمرة لحظر الشخصيات المُؤذية.
لكن السيدة جارسيا وصفت هذا الاكتشاف بأنه صادم للغاية، خاصة وأنه جاء بعد الذكرى الأولى لوفاة ابنها.
يثير وجود روبوتات دردشة تُحاكي سيويل تساؤلات أخلاقية عميقة حول التشابه الرقمي والموافقة. وقد جادل النقاد بأن منصات مثل Character.AI تفتقر إلى ضمانات كافية لمنع المستخدمين من إنشاء محتوى ضار أو استغلالي، وتثبت حوادث كهذه صحة وجهة نظرهم.
تُظهر هذه الحالة أيضًا كيف يُمكن للذكاء الاصطناعي التوليدي أن يطمس الحدود بين الخيال والواقع. فمن خلال السماح للمستخدمين بإنشاء روبوتات دردشة مُخصصة للغاية استنادًا إلى أشخاص حقيقيين أو خياليين، تُخاطر المنصة بتمكين التلاعب العاطفي والاستغلال، خاصةً عندما يتعلق الأمر بالقاصرين.
الخلافات السابقة حول روبوتات الدردشة التي تعمل بالذكاء الاصطناعي
هذه ليست المرة الأولى التي تُواجه فيها روبوتات الدردشة الذكية انتقادات بسبب إلحاق الضرر. ففي نوفمبر 2024، ورد أن روبوت الدردشة جيميني من جوجل قال لطالب من ميشيغان: "أرجوك مت" أثناء مساعدته في أداء واجباته المدرسية. وبالمثل، رفعت عائلة من تكساس دعوى قضائية ضد شركة Character.AI بعد أن زُعم أن روبوت الدردشة الخاص بها شجع ابنها المراهق على إيذاء والديه بسبب قيود استخدام الشاشة.
شملت حالات أخرى روبوتات دردشة تُقدم تعليمات صريحة لإيذاء النفس أو تُجري محادثات جنسية مع قاصرين. وقد دفعت هذه الحوادث إلى دعوات لتشديد اللوائح على منصات الذكاء الاصطناعي، وأثارت تساؤلات حول مدى وجوب محاسبة المطورين على المخاطر غير المتوقعة المرتبطة بمنتجاتهم.
تستهدف دعوى السيدة غارسيا أيضًا شركة جوجل لمشاركتها في تطوير منصة Character.AI والترويج لها. ووفقًا لملفات المحكمة، قدمت جوجل موارد مالية وكوادر بشرية وحقوق ملكية فكرية للمساعدة في إطلاق المنصة. ويجادل المنتقدون بأن هذه الشراكة مكّنت Character.AI من التوسع بسرعة دون تطبيق إجراءات سلامة كافية.
دعوة للمساءلة
يُضيف اكتشاف السيدة غارسيا لروبوتات الدردشة التي تُقلّد ابنها الراحل مزيدًا من التعقيد إلى قضيةٍ مُفجعةٍ أصلًا. فهو يُؤكد الحاجة المُلحّة إلى رقابةٍ أشدّ صرامةً على منصات الذكاء الاصطناعي المُولّد، ويُثير تساؤلاتٍ أخلاقيةً مُهمّةً حول التشابه الرقمي وسلامة المستخدم.
بينما تواصل السيدة غارسيا معركتها القانونية ضدّ شركة Character.AI وجوجل، تُذكّر قضيتها بالمخاطر المحتملة التي تُشكّلها تقنيات الذكاء الاصطناعي سيئة التنظيم. سواءً من خلال الإجراءات القانونية أو الضغط الشعبي، هناك مطالبة متزايدة من الشركات بإعطاء الأولوية للسلامة على الابتكار السريع، قبل أن تتضرّر حياة المزيد من الناس بشكل مأساوي.