شان أوبا، جولدن فاينانس
في ربيع عام 2026، حطمت طلقات الرصاص في حي باسيفيك هايتس بمدينة سان فرانسيسكو افتراضًا شائعًا: لم يعد الاعتراض على الذكاء الاصطناعي مقتصرًا على الإدانة عبر الإنترنت والاحتجاجات خلف الشاشات.
عندما اخترقت ألسنة اللهب من زجاجات المولوتوف سماء الليل، وعندما حطمت الرصاصات النوافذ والأبواب، موجهة مباشرة إلى منزل سام ألتمان، الرئيس التنفيذي لشركة OpenAI، اضطررنا لمواجهة حقيقة قاسية: في ظل التطور السريع للثورة التكنولوجية، تحول خوف البشرية من الذكاء الاصطناعي إلى سلاح فتاك.

أولاً: 48 ساعة، هجومان مرعبان
في تمام الساعة 2:30 صباحًا من يوم 11 أبريل 2026، في حي باسيفيك هايتس الهادئ بمدينة سان فرانسيسكو، اخترقت زجاجة مولوتوف فجأةً الظلام، لتصطدم بقوة بالجدار الخارجي لمنزل سام ألتمان. اندلعت النيران لفترة وجيزة، مما تسبب في أضرار طفيفة للجدار الخارجي فقط ودون وقوع إصابات، لكن ذلك كان كافيًا لزعزعة عالم التكنولوجيا بأكمله. وبحسب ما ورد، استقل ثلاثة مشتبه بهم ملثمين سيارة هوندا سيفيك سوداء بسرعة وفروا من مكان الحادث.
وبعد 48 ساعة فقط، عاد الذعر ليُخيم على المكان مرة أخرى. في تمام الساعة 1:15 صباحًا من يوم 13 أبريل، وفي الموقع نفسه، توقفت سيارة ببطء، ثم دوّى صوت طلقة نارية مزّقت الصمت، وحطّمت النوافذ. ولحسن الحظ، لم يُصب أحد في الهجوم. تدخّلت الشرطة سريعًا وألقت القبض على مشتبه بهما في الحال - أماندا توم (25 عامًا) ومحمد طارق حسين (23 عامًا) - واحتُجزا بتهمة القتل غير العمد. وقد بدأ مكتب التحقيقات الفيدرالي تحقيقًا رسميًا، ومن المرجّح أن تتصاعد القضية لتشمل تهمًا تتعلق بالإرهاب. وفي وقت لاحق، أعلنت منظمة مناهضة للذكاء الاصطناعي تُدعى "إيقاف الذكاء الاصطناعي" مسؤوليتها علنًا عن كلا الهجومين. هذه ليست قصة من أفلام التشويق الهوليوودية، بل حادثة عنف حقيقية استهدفت شخصيات بارزة في عالم التكنولوجيا في ربيع عام 2026. من العرائض السلمية إلى الهجمات العنيفة: التصعيد الجامح لحركة مناهضة الذكاء الاصطناعي. لو عدنا بالزمن عامين إلى الوراء، لوجدنا أن حركة مناهضة الذكاء الاصطناعي ظلت محصورة في نطاق الاحتجاجات العقلانية والعرائض السلمية، التي اتسمت بضبط النفس والتعبير عن المطالب. في سبتمبر/أيلول 2024، تأسست "شبكة أمن الذكاء الاصطناعي" رسميًا، وتركزت أنشطتها الأساسية على الضغط السياسي، والعرائض العامة، وكشف المخالفات في القطاع، سعيًا منها لتعزيز تطبيق تنظيم الذكاء الاصطناعي عبر القنوات القانونية. في العام نفسه، تجمع مئات النشطاء المناهضين للذكاء الاصطناعي أمام مقر شركة OpenAI، رافعين لافتات كُتب عليها "أوقفوا البحث والتطوير في مجال الذكاء الاصطناعي"، ناقلين مطالبهم بهدوء وحزم إلى الحكومة والشركات، داعين إلى إنشاء نظام تنظيمي شامل للذكاء الاصطناعي. وجاءت نقطة التحول في عام 2025، عندما شهدت حركة مناهضة الذكاء الاصطناعي تحولًا جذريًا، حيث حلت الإجراءات الراديكالية تدريجيًا محل المطالب المعتدلة. في أغسطس/آب من ذلك العام، حاصر أكثر من 500 متظاهر مقر شركة OpenAI، مما تسبب في فوضى عارمة وأسفر عن اعتقال ثلاثة أشخاص بتهمة الإخلال بالنظام العام. في نوفمبر، تعرض مركز بيانات جوجل في ولاية أوريغون للتخريب المتعمد على يد نشطاء مناهضين للذكاء الاصطناعي، مما تسبب في انقطاع التيار الكهربائي لمدة ساعتين وخسائر اقتصادية مباشرة تصل إلى مليوني دولار. وكانت هذه المرة الأولى التي تتسبب فيها أعمال مناهضة للذكاء الاصطناعي في أضرار مادية جسيمة، مما دلّ على تطرف الحركة. ومع بداية عام 2026، تسارعت وتيرة الحركة المناهضة للذكاء الاصطناعي، مع تزايد نزعاتها العنيفة بشكل ملحوظ. ففي يناير، وقّع أكثر من 120 ألف شخص عريضة تطالب البيت الأبيض بتعليق برنامج تدريب GPT-5 بشكل عاجل، خشيةً من مخاطره المحتملة الخارجة عن السيطرة؛ وفي فبراير، اندلعت مظاهرة اعتصام واسعة النطاق أمام مكاتب شركة أنثروبيك في نيويورك، حيث اعتُقل 12 متظاهرًا لرفضهم التفرق؛ وفي مارس، تعرض مركز بيانات إنفيديا في كاليفورنيا للتخريب مرة أخرى، حيث بلغت الخسائر 5 ملايين دولار، وأُلقي القبض على مشتبه بهما. في أبريل، استهدف نشطاء مناهضون للذكاء الاصطناعي سام ألتمان، أحد الشخصيات البارزة في صناعة الذكاء الاصطناعي، مستخدمين زجاجات المولوتوف والرصاص لدفع الاحتجاجات إلى ذروة عنيفة. من العرائض إلى التخريب المتعمد، ومن الاعتداءات على الممتلكات إلى التهديدات بالعنف، يحمل المسار المتصاعد لحركة مناهضة الذكاء الاصطناعي تشابهاً لافتاً مع حركة اللوديين في التاريخ - ففي عام 1811، قام عمال النسيج البريطانيون، خوفاً من أن تحل الآلات محل وظائفهم، بتحطيم معدات النسيج، مستخدمين أساليب متطرفة لمقاومة التغيير التكنولوجي. التاريخ لا يعيد نفسه ببساطة، ولكنه يتردد صداه دائماً بإيقاعات مماثلة عبر العصور، مما يوفر حاشية تاريخية للجدل الحالي حول الذكاء الاصطناعي.
ثالثاً: ستة مخاوف وراء المشاعر المناهضة للذكاء الاصطناعي
لفهم الطبيعة الخارجة عن السيطرة لحركة مناهضة الذكاء الاصطناعي، يجب علينا أولاً فهم المخاوف المتأصلة وراءها.
هذه المخاوف ليست بلا أساس، بل هي الأثر الحقيقي للتغير التكنولوجي على المجتمع البشري، وظروف معيشتنا، وقيمتنا الذاتية.1. فقدان الوظائف
هذا هو الخوف الأكثر مباشرة وانتشارًا. تُظهر بيانات عام 2025 أن حوالي 3.8 مليون شخص في الولايات المتحدة فقدوا وظائفهم بالفعل بسبب تطبيقات الذكاء الاصطناعي، بما في ذلك العديد من وظائف ذوي الياقات البيضاء التي كانت تُعتبر "مستقرة وآمنة"، مثل خدمة العملاء، والترجمة، والبرمجة الأساسية، وتحليل البيانات. يتم استبدال هذه الوظائف بأعداد كبيرة بأنظمة ذكاء اصطناعي فعالة.
تتوقع شركة ماكينزي أنه بحلول عام 2030، سيتأثر حوالي 45% من وظائف ذوي الياقات البيضاء على مستوى العالم بشكل مباشر بالذكاء الاصطناعي، إما باستبدالها أو إجبارها على التحول.
اعترف مُقيّم مطالبات سابق، عمل في شركة تأمين لمدة 15 عامًا، في مقابلة أجريت معه في نوفمبر 2025: "عملتُ في مراجعة المطالبات لمدة 15 عامًا. في العام الماضي، من بين 80 موظفًا في قسمي، لم يتبقَّ سوى 5 موظفين للتعامل مع "الحالات الشاذة" التي عجز الذكاء الاصطناعي عن حلها. أما الـ 75 موظفًا المتبقين، فقد استُبدلوا جميعًا بأنظمة الذكاء الاصطناعي. لم يكن لدينا حتى متسع من الوقت." بالنسبة للشركات، يُمكن أن يُؤدي تبني الذكاء الاصطناعي إلى خفض متوسط التكاليف بنسبة 60% وزيادة عوائد المساهمين بشكل ملحوظ. مع ذلك، بالنسبة للموظفين العاديين، يعني هذا انخفاضًا في الدخل وزيادة حادة في خطر البطالة، إذ لم تُترجم الزيادة في الكفاءة إلى زيادة مُقابلة في فرص العمل. هذه هي الحقيقة القاسية وراء التغيير التكنولوجي. 2. فقدان السيطرة: يخشى البشر بطبيعتهم الأشياء "غير المفهومة والتي لا يُمكن السيطرة عليها". مهما بلغت التقنيات التقليدية من تعقيد، يستطيع البشر فهم مبادئها الأساسية والتدخل فيها أو تعديلها أو حتى إيقاف تشغيلها في أي وقت. مع ذلك، فإن جوهر تقنية الذكاء الاصطناعي هو "صنع القرار في صندوق أسود"، حيث يصعب على البشر تفسير منطق تشغيلها ومعايير الحكم فيها بشكل كامل. بل قد يطور الذكاء الاصطناعي قدرات اتخاذ قرارات مستقلة أثناء عملية التعلم، متجاوزًا بذلك توقعات البشر وسيطرتهم. وكما ذكر البروفيسور ستيوارت راسل من جامعة كاليفورنيا في بيركلي: "إن أكثر المفاهيم الخاطئة رعبًا لدى البشر حول الذكاء الاصطناعي ليس أنه سيتمرد عليهم، بل أنه سينفذ أخطاءهم بدقة متناهية - فعندما لا نأخذ جميع المخاطر في الحسبان، قد تكون لـ"طاعة الذكاء الاصطناعي المطلقة" عواقب وخيمة". 3. تفاقم عدم المساواة الاجتماعية: من المفترض أن تجلب الثورات التكنولوجية فوائد شاملة، لكن توزيع عوائد الذكاء الاصطناعي يُظهر استقطابًا حادًا. تشير التقديرات لعام 2025 إلى أن كبار مساهمي شركات الذكاء الاصطناعي يستحوذون على حوالي 45% من إجمالي القيمة التي يخلقها الذكاء الاصطناعي، بينما يتقاسم الباحثون والمهندسون الأساسيون في هذا المجال حوالي 25%، في حين لا يحصل العمال العاديون إلا على حوالي 15%، ولا يحصل العديد من العاطلين عن العمل الذين استُبدلوا بالذكاء الاصطناعي على أي عوائد. خلال مظاهرة في فبراير 2026، صرّح أحد المتظاهرين من منظمة "أوقفوا الذكاء الاصطناعي" بغضب: "يجني الرؤساء التنفيذيون ومساهمو شركات الذكاء الاصطناعي ثروات طائلة، ويكسبون مليارات الدولارات سنويًا، بينما نفقد وظائفنا ومصادر رزقنا بسبب الذكاء الاصطناعي. هذا ليس تقدمًا تكنولوجيًا، بل هو نهب سافر." 4. اختفاء التفرد الإنساني: الفن والكتابة والتفكير والإبداع - وهي قدرات كانت تُعتبر في السابق "حصرية للإنسان" - يتم الآن تفكيكها واحدة تلو الأخرى بواسطة الذكاء الاصطناعي. فازت الأعمال الفنية التي أنشأها برنامج Midjourney بجوائز دولية، واجتاز GPT-5 اختبارات أدبية رفيعة المستوى، ويمكن لـ Devin إكمال مشاريع برمجة معقدة بشكل مستقل - عندما يكون الذكاء الاصطناعي أفضل في الإبداع والتفكير، بل وأفضل في فهم المشاعر والاحتياجات الإنسانية من البشر، يبدأ الكثير من الناس بالتساؤل: ما هي القيمة الفريدة للوجود الإنساني؟

5. تسريبات الخصوصية
أدى انتشار تقنية الذكاء الاصطناعي إلى أزمة خصوصية غير مسبوقة. حاليًا، تستخدم 85% من المدن الكبرى حول العالم أنظمة التعرف على الوجوه بالذكاء الاصطناعي، ويتم جمع وتحليل 90% من بيانات مستخدمي الإنترنت بواسطة شركات الذكاء الاصطناعي. وقد وصلت دقة تنبؤات الذكاء الاصطناعي بالسلوك الشخصي إلى 78%. يتم تسجيل مسارات سفرنا وعاداتنا الاستهلاكية وسجلات محادثاتنا واهتماماتنا وتفسيرها بهدوء بواسطة الذكاء الاصطناعي. يبدو أن البشر يعيشون في عالم مكشوف يفتقر إلى الخصوصية، ويتآكل شعورنا بالأمان باستمرار. 6. ذعر يوم القيامة: أدى ميل وسائل الإعلام إلى المبالغة في سيناريوهات يوم القيامة، مثل "خروج الذكاء الاصطناعي عن السيطرة، وانقراض البشرية"، إلى تفاقم الذعر العام. ومع ذلك، ووفقًا لخبراء الصناعة، فإن احتمالية حدوث هذه السيناريوهات المتطرفة منخفضة للغاية: البطالة الجماعية (85%، حدثت بالفعل)، إساءة استخدام تقنية التزييف العميق (75%، حدثت بالفعل)، تسليح الذكاء الاصطناعي (45%، متوقعة خلال 5-10 سنوات)، خروج الذكاء الاصطناعي الكامل عن السيطرة (5-15%، متوقعة خلال 10-30 سنة)، وانقراض البشرية (أقل من 1%). لسوء الحظ، غالبًا ما تُضخّم وسائل الإعلام مخاطر يوم القيامة ذات الاحتمالية المنخفضة، متجاهلةً الضرر الواقعي الواسع النطاق الذي يحدث بالفعل.
رابعًا. جدل الذكاء الاصطناعي من منظور المشاهير
في مواجهة الفرص والمخاطر التي يجلبها الذكاء الاصطناعي، تباينت آراء المشاهير من جميع أنحاء العالم، وشكّلوا ثلاثة معسكرات متميزة، يتمسك كل منها بموقفه وينخرط في نقاشات حادة.
المعارضة: تدعو بشدة إلى وقف التطوير، وتوخي الحذر من المخاطر
صوت هذا المعسكر هو الأعلى، ومطلبه الأساسي هو تعليق أبحاث وتطوير الذكاء الاصطناعي لمنع المخاطر المحتملة.
في ديسمبر 2025، صرّح إيلون ماسك علنًا: "الذكاء الاصطناعي هو أكبر تهديد للحضارة الإنسانية، وستكون العواقب لا يمكن تصورها إذا لم يتم السيطرة عليه في الوقت المناسب."
في يناير 2026، أدلى ستيف وزنياك، المؤسس المشارك لشركة آبل، بتصريح قال فيه: "لقد تجاوزت سرعة تطور الذكاء الاصطناعي قدرة الإنسان على التحكم، ويجب إيقافه فورًا لإعادة تقييم مخاطره". وفي سبتمبر 2025، حذر يوفال نوح هراري، مؤلف كتاب "سابينس: تاريخ موجز للبشرية"، قائلاً: "قد يُنهي الذكاء الاصطناعي العصر البشري تمامًا، ويُعيد تشكيل النظام البيئي والنظام العالمي للأرض". أما أكثر التصريحات إثارةً للتفكير، فهو تصريح جيفري هينتون، المعروف بـ"عراب الذكاء الاصطناعي"، الذي استقال من منصبه في جوجل في يونيو 2025، واعترف علنًا: "أندم على مشاركتي في أبحاث وتطوير الذكاء الاصطناعي. أُدرك أن التكنولوجيا التي ابتكرتها قد تُلحق ضررًا لا يُمكن إصلاحه بالبشرية". المؤيدين: تقبّل التغيير، وادعم التقدم. يؤمن المؤيدون إيمانًا راسخًا بأن الذكاء الاصطناعي... هو اتجاه حتمي للتقدم البشري، ولا ينبغي أن يكون الخوف سببًا لعرقلة التطور التكنولوجي. في أعقاب هجوم أبريل 2026، علّق سام ألتمان قائلاً: "أتفهم تماماً مخاوف الناس من الذكاء الاصطناعي، لكن لا يمكننا التوقف عن التقدم بسبب الخوف. تاريخياً، رافقت كل ثورة تكنولوجية شكوك ومخاوف، لكنها في نهاية المطاف كانت المحرك الرئيسي لازدهار وتطور المجتمع البشري". وفي يناير 2026، صرّح مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا: "الذكاء الاصطناعي ليس تهديداً، بل أداة لتحرير الإبداع البشري. فهو يساعدنا على التخلص من الأعمال الروتينية المملة والتركيز على إبداعات أكثر قيمة". وفي ديسمبر 2025، صرّح جنسن هوانغ، الرئيس التنفيذي لشركة إنفيديا، بوضوح: "الذكاء الاصطناعي هو جوهر الثورة الصناعية الجديدة. سيعيد تشكيل المشهد الصناعي العالمي ويجلب فرصاً تنموية غير مسبوقة". أما رأي خبير الذكاء الاصطناعي أندرو نج فهو أكثر عقلانية: "بالغت وسائل الإعلام في تصوير الذكاء الاصطناعي كتهديد. في الواقع، لن يحل الذكاء الاصطناعي محل البشر؛ بل سيتم استبدال أولئك الذين لا يرغبون في التعلم ويرفضون التكيف مع الذكاء الاصطناعي". أكد مارك أندريسن، مؤسس شركة a16z، بحزم: "الذكاء الاصطناعي..." سينقذ العالم؛ فهو قادر على حلّ مشاكل كبرى تواجه البشرية، مثل تغير المناخ والوقاية من الأمراض. إن معارضة الذكاء الاصطناعي هي في جوهرها معارضة للتقدم البشري. الفصيل المحايد: الموازنة بين الابتكار والأمن. تسعى الفصائل المحايدة إلى إيجاد توازن بين "تشجيع الابتكار" و"منع المخاطر"، مؤكدةً على أهمية التنظيم. صرّح بيل غيتس قائلاً: "يُتيح الذكاء الاصطناعي فرصًا هائلة للتطوير، ولكنه ينطوي أيضًا على مخاطر لا يمكن تجاهلها. لا يكمن جوهر الأمر في "ما إذا كان ينبغي تطوير الذكاء الاصطناعي أم لا"، بل في كيفية توجيه تطوره السليم - فنحن بحاجة إلى نظام تنظيمي سليم لا يكبح الابتكار ولا يسمح بانتشار المخاطر". يتبنى سوندار بيتشاي، الرئيس التنفيذي لشركة جوجل، وجهة نظر مماثلة: "جوهر تطوير الذكاء الاصطناعي هو التوازن؛ يجب علينا الحفاظ على حيوية الابتكار مع التمسك بأهمية السلامة، لضمان أن يخدم الذكاء الاصطناعي البشرية حقًا". أكد تيم كوك، الرئيس التنفيذي لشركة آبل، على ضرورة التزام الذكاء الاصطناعي بنهجٍ يتمحور حول الإنسان؛ إذ ينبغي أن تتمحور جميع الأبحاث والتطويرات التكنولوجية حول احتياجات الإنسان ورفاهيته، بدلاً من مجرد السعي وراء تحقيق اختراقات تكنولوجية. خامساً: مرآة التاريخ. إن حركة مناهضة الذكاء الاصطناعي ليست أول حالة مقاومة للتقنيات الجديدة في تاريخ البشرية. فبالنظر إلى الماضي، نجد أن كل ثورة تكنولوجية كبرى قد رافقتها معارضة شديدة، وقد تُقدم أنماط التاريخ رؤى ثاقبة حول الجدل الدائر حول الذكاء الاصطناعي. ففي الفترة من 1811 إلى 1816، اندلعت حركة اللوديين الشهيرة في بريطانيا. فقد قام عمال النسيج، خوفاً من أن تحل الآلات محل العمل اليدوي وتستولي على وظائفهم، بتحطيم معدات النسيج ومقاومة التغيير التكنولوجي بعنف. وفي نهاية المطاف، قمعت الحكومة الحركة، لكنها أدركت أيضاً مشاكل التوظيف الناجمة عن التغيير التكنولوجي، فسنت لاحقاً سلسلة من قوانين العمل لحماية حقوق العمال - فالتطور التكنولوجي لا يمكن إيقافه، لكن بإمكان البشرية الحد من أضراره من خلال التصميم المؤسسي. وفي ثلاثينيات القرن التاسع عشر، ومع ظهور تكنولوجيا السكك الحديدية، اندلعت أيضاً حركات مناهضة للسكك الحديدية. انتاب الناس قلقٌ من أن تُلحق القطارات أضرارًا بالأراضي الزراعية، وتُفزع الماشية، بل واعتقدوا أن "الحركة فائقة السرعة ستضر بصحة الإنسان"، مما أدى إلى معارضة واسعة النطاق لبناء السكك الحديدية. ومع ذلك، وبفضل كفاءتها وسهولة استخدامها، انتشرت السكك الحديدية تدريجيًا، لتصبح قوة دافعة أساسية للثورة الصناعية، وتلاشت الحركة المناهضة للسكك الحديدية. ومنذ خمسينيات القرن الماضي وحتى الآن، لا تزال الحركة المناهضة للطاقة النووية مستمرة، حيث يخشى المعارضون العواقب الوخيمة للتسريبات النووية والحرب النووية. وقد حققت هذه الحركة بعض النجاح؛ إذ يخضع تطوير الطاقة النووية عالميًا الآن لرقابة صارمة، وتتحسن أنظمة السلامة النووية باستمرار. وبالمثل، لم تتوقف الحركة المناهضة للكائنات المعدلة وراثيًا منذ تسعينيات القرن الماضي، حتى أن أوروبا حظرت محاصيل الكائنات المعدلة وراثيًا تمامًا، مما يعكس موقف البشرية الحذر تجاه مخاطر التقنيات الجديدة. واليوم، لا تزال الحركة المناهضة للذكاء الاصطناعي، التي بدأت في عام 2024، في طور النمو، ولا تزال نتائجها غير واضحة. لكن التاريخ قد أظهر نمطًا: ففي المراحل الأولى لأي تقنية جديدة، ستواجه حتمًا معارضة شديدة. في المراحل المتوسطة، تتدخل الحكومات والمجتمعات لتنظيم وتوحيد التطور التكنولوجي؛ وفي المراحل اللاحقة، مع ازدياد انتشار التكنولوجيا وتكيف الناس معها تدريجيًا، تضعف المعارضة تدريجيًا. ومع ذلك، تجدر الإشارة إلى أن كل ثورة تكنولوجية تُنتج "مستفيدين" و"ضحايا". يكتسب البعض فرصًا من التقدم التكنولوجي، بينما يفقد آخرون مصادر رزقهم بسبب التغير التكنولوجي. لم تكن القضية الأساسية يومًا "ما إذا كان ينبغي تطوير التكنولوجيا أم لا"، بل "كيفية توزيع فوائد التكنولوجيا بشكل عادل" وكيفية حماية المتضررين منها. هذا هو تحديدًا المطلب الأساسي لحركة مناهضة الذكاء الاصطناعي، وهو تحدٍّ يجب علينا مواجهته اليوم. سادسًا: الخاتمة. إن ثقوب الرصاص في نافذة سام ألتمان ليست تهديدًا لشخص واحد، بل هي تحذير للعصر بأسره. لم يكن جميع من ألقوا زجاجات المولوتوف مجانين. كان من بينهم سائقو شاحنات فقدوا وظائفهم، وخريجون لم يروا مستقبلًا، وآباء يخشون أن يحل الذكاء الاصطناعي محل أبنائهم. الخوف حقيقي، والمطالب تستحق أن تُسمع، لكن العنف ليس الحل. لا يكمن الحل الحقيقي في الرصاص، بل في النظام، وفي التوزيع، وفي تعويض من "تخلفوا عن الركب". لقد أثبت التاريخ مرارًا وتكرارًا أن التكنولوجيا في حد ذاتها ليست خيرًا ولا شرًا. عندما يستطيع الذكاء الاصطناعي القيام بمعظم ما يفعله البشر، أو حتى القيام به على نحو أفضل، فما قيمة الإنسانية؟