قائمة بـ 7 مشاريع لامركزية للذكاء الاصطناعي
قد يكون الذكاء الاصطناعي اللامركزي هو المجال الأسرع نموًا الذي سنراه في عالم العملات المشفرة.
JinseFinanceالمؤلف: @ed_roman; في سوق العملات المشفرة، وهو أحد أهم المجالات وأكثرها واعدة. بما في ذلك:
تدريب لامركزي على الذكاء الاصطناعي
شبكة البنية التحتية المادية اللامركزية لوحدة معالجة الرسومات
نماذج الذكاء الاصطناعي غير الخاضعة للرقابة هل هذه تطورات رائدة أم مجرد ضجيج ؟
في @hack_vc، نحاول تجاوز الضباب وفصل الوعود عن الواقع. ستقدم هذه المقالة تحليلًا متعمقًا لأهم الأفكار في مجال التشفير والذكاء الاصطناعي. دعونا نستكشف التحديات والفرص الحقيقية معًا.
مشكلة تدريب الذكاء الاصطناعي على السلسلة هي أن التدريب يتطلب اتصالاً وتنسيقًا عالي السرعة بين وحدات معالجة الرسومات لأن الشبكة العصبية تحتاج إلى إجراء انتشار خلفي أثناء التدريب. توفر Nvidia تقنيتين مبتكرتين لهذا الغرض (NVLink وInfiniBand). يمكن لهذه التقنيات تسريع اتصال وحدة معالجة الرسومات بشكل كبير، ولكن لا يمكن استخدامها إلا في مجموعة من وحدات معالجة الرسومات داخل مركز بيانات واحد (سرعات تتجاوز 50 جيجابت في الثانية).
إذا تم تقديم شبكة لا مركزية، فستكون السرعة أبطأ بشكل ملحوظ بسبب زيادة زمن الوصول للشبكة وعرض النطاق الترددي. وهذا ببساطة غير ممكن بالنسبة لحالات استخدام التدريب على الذكاء الاصطناعي مقارنة بالربط البيني عالي السرعة الذي توفره Nvidia داخل مراكز البيانات. بالإضافة إلى ذلك، فإن عرض النطاق الترددي للشبكة وتكاليف التخزين أعلى بكثير في البيئة اللامركزية مقارنة بمحركات الأقراص ذات الحالة الثابتة (SSD) في المجموعة المحلية.
هناك مشكلة أخرى تتعلق بتدريب نماذج الذكاء الاصطناعي على السلسلة وهي أن هذا السوق أقل جاذبية من الاستدلال. حاليًا، يتم استخدام كمية كبيرة من موارد الحوسبة GPU لتدريب نماذج اللغات الكبيرة للذكاء الاصطناعي (LLM). ولكن على المدى الطويل، سيصبح الاستدلال هو سيناريو التطبيق الرئيسي لوحدة معالجة الرسومات. فكر في الأمر: ما هو عدد نماذج لغة الذكاء الاصطناعي الكبيرة التي تحتاج إلى التدريب لتلبية الطلب؟ وبالمقارنة، كم عدد العملاء الذين سيستخدمون هذه النماذج؟
يرجى ملاحظة أن هناك بالفعل بعض الابتكارات في هذا المجال والتي قد توفر الأمل لمستقبل التدريب على الذكاء الاصطناعي عبر السلسلة:
1) يتم تنفيذ التدريب الموزع القائم على InfiniBand على نطاق واسع، وتدعم NVIDIA نفسها أيضًا التدريب الموزع غير المحلي من خلال مكتبة الاتصالات الجماعية الخاصة بها. ومع ذلك، فإن هذا لا يزال في المراحل الأولى ويبقى أن نرى اعتماده. لا يزال الاختناق الناجم عن التباعد الجسدي موجودًا، لذا فإن تدريب InfiniBand المحلي لا يزال أسرع بشكل ملحوظ.
2) تم نشر بعض الأبحاث الجديدة، التي تستكشف التدريب اللامركزي الذي يقلل من عدد تزامنات الاتصالات، مما قد يجعل التدريب اللامركزي أكثر عملية في المستقبل.
3) يمكن أن يساعد التقسيم الذكي وجدولة التدريب على تحسين الأداء. وبالمثل، قد تكون هناك هياكل نموذجية جديدة مصممة خصيصًا للبنية التحتية الموزعة في المستقبل (تجري جينسين أبحاثًا في هذه المجالات).
4) يحاول الابتكار مثل Neuromesh تحقيق التدريب الموزع بتكلفة أقل من خلال طريقة جديدة تسمى شبكة الترميز التنبؤي (PCN).
يمثل جزء معلومات بيانات التدريب مشكلة أيضًا. تتضمن أي عملية تدريب على الذكاء الاصطناعي معالجة كميات كبيرة من البيانات. عادةً، يتم تدريب النماذج على أنظمة تخزين بيانات مركزية وآمنة تتميز بقابليتها للتطوير والأداء العالي. ويتطلب ذلك نقل ومعالجة تيرابايت من البيانات، وهي ليست دورة لمرة واحدة. غالبًا ما تكون البيانات مشوشة وتحتوي على أخطاء، لذا قبل تدريب النموذج، يجب تنظيف البيانات وتحويلها إلى تنسيق قابل للاستخدام. تتضمن هذه المرحلة المهام المتكررة المتمثلة في توحيد القيم المفقودة وتصفيتها والتعامل معها. وفي بيئة لا مركزية، تشكل هذه التحديات تحديات خطيرة.
جزء معلومات بيانات التدريب متكرر أيضًا، وهو غير متوافق مع Web3. لقد استغرق الأمر آلاف التكرارات من OpenAI لتحقيق نتائجها. عملية التدريب متكررة: إذا لم يعمل النموذج الحالي كما هو متوقع، يعود الخبراء إلى جمع البيانات أو مراحل التدريب النموذجية لتحسين النتائج. الآن، تخيل القيام بهذه العملية في بيئة لا مركزية حيث لا تتوفر أفضل الأطر والأدوات الموجودة بسهولة في Web3.
إحدى التقنيات الواعدة هي 0g.ai (المدعومة من Hack VC)، فهي توفر تخزين البيانات على السلسلة والبنية التحتية لتوافر البيانات. لديهم بنية أسرع والقدرة على تخزين كميات كبيرة من البيانات على السلسلة.
الجمع بين التشفير وAI One أحد التحديات هو التحقق من دقة استنتاج الذكاء الاصطناعي، لأنه لا يمكنك الثقة بشكل كامل في طرف مركزي واحد لإجراء عمليات الاستدلال، وهناك احتمال أن تسيء العقد التصرف. في الذكاء الاصطناعي الخاص بـWeb2، لا يوجد هذا التحدي لأنه لا يوجد نظام إجماع لامركزي.
أحد الحلول هو الحوسبة الزائدة عن الحاجة، حيث تكرر العقد المتعددة نفس عمليات استنتاج الذكاء الاصطناعي من أجل العمل في بيئة غير موثوقة وتجنب خطأ النقاط الفردية.
مشكلة هذا النهج هي أننا نعيش في عالم يعاني من نقص حاد في رقائق الذكاء الاصطناعي المتطورة. وتبلغ فترة انتظار شرائح NVIDIA المتطورة عدة سنوات، مما يتسبب في ارتفاع الأسعار. إذا كنت تحتاج أيضًا إلى تنفيذ استنتاج الذكاء الاصطناعي عدة مرات على عقد متعددة، فسيؤدي ذلك إلى زيادة هذه التكاليف الباهظة بشكل كبير. بالنسبة للعديد من المشاريع، لن ينجح هذا.
يقترح بعض الأشخاص ذلك يجب أن يكون لدى Web3 حالات استخدام فريدة للذكاء الاصطناعي، تستهدف عملاء Web3 على وجه التحديد.
في الوقت الحالي، لا يزال هذا سوقًا ناشئًا ولا يزال يتم اكتشاف حالات الاستخدام. تتضمن بعض التحديات ما يلي:
تتطلب حالات الاستخدام الأصلية لـ Web3 معاملات أقل للذكاء الاصطناعي بسبب طلب السوق. طفولتها.
هناك عدد أقل من العملاء، نظرًا لأن عدد طلبات عملاء Web3 أقل من عملاء Web2، وبالتالي فإن السوق أقل تجزئة.
العملاء أنفسهم ليسوا مستقرين بدرجة كافية لأنهم شركات ناشئة ذات تمويل أقل، لذلك قد تفقد هذه الشركات الناشئة قيمتها مع مرور الوقت عند الانهيار. قد يحتاج مقدمو خدمات الذكاء الاصطناعي الذين يستهدفون عملاء Web3 إلى إعادة اكتساب بعض العملاء بمرور الوقت ليحلوا محل العملاء الذين توقفوا عن العمل، مما يزيد من صعوبة توسيع أعمالهم.
على المدى الطويل، نحن متفائلون جدًا بشأن حالات استخدام الذكاء الاصطناعي الأصلي لـ Web3، خاصة وأن عوامل الذكاء الاصطناعي أصبحت أكثر شيوعًا. نحن نتصور مستقبلًا حيث سيكون لكل مستخدم Web3 العديد من وكلاء الذكاء الاصطناعي لمساعدتهم. من أوائل الشركات الرائدة في هذا المجال هو Theoriq.ai، الذي يقوم ببناء منصة من عملاء الذكاء الاصطناعي القابلين للتركيب والقادرين على خدمة عملاء Web2 وWeb3 (بدعم من Hack VC).
نعم العديد منها لامركزية تعتمد شبكات حوسبة الذكاء الاصطناعي على وحدات معالجة الرسومات المخصصة للمستهلك بدلاً من وحدات معالجة الرسومات في مراكز البيانات. تعد وحدات معالجة الرسومات المخصصة للمستهلك مناسبة لمهام استنتاج الذكاء الاصطناعي المنخفضة أو حالات استخدام المستهلك مع متطلبات زمن الوصول والإنتاجية والموثوقية الأكثر مرونة. ولكن بالنسبة لحالات الاستخدام الجادة للمؤسسات (أي تلك التي تستحوذ على حصة سوقية كبيرة)، يتوقع العملاء أن تكون الشبكة أكثر موثوقية من الأجهزة المنزلية، وغالبًا ما تتطلب مهام الاستدلال المعقدة وحدات معالجة رسوميات متطورة. بالنسبة لحالات استخدام العملاء الأكثر قيمة، تعد مراكز البيانات مناسبة بشكل أفضل.
من المهم ملاحظة أننا نعتقد أن وحدات معالجة الرسومات المخصصة للمستهلكين مناسبة لأغراض العرض التوضيحي أو للأفراد والشركات الناشئة الذين يمكنهم تحمل موثوقية أقل. لكن قيمة هؤلاء العملاء أقل بشكل أساسي، لذلك نعتقد أن شبكة البنية التحتية المادية اللامركزية (DePIN) لمؤسسات Web2 ستكون أكثر قيمة على المدى الطويل. ونتيجة لذلك، تطورت مشاريع GPU DePIN المعروفة عادةً من استخدام الأجهزة المخصصة للمستهلكين بشكل أساسي في أيامها الأولى إلى توفر الآن A100/H100 والتوافر على مستوى المجموعة.
الآن، دعونا نناقش الاستخدام الحالات التي يمكن فيها لـ crypto x AI زيادة القيمة بشكل كبير.
تقدّر شركة ماكينزي أن الذكاء الاصطناعي التوليدي يمكنه جلب 2.6 تريليون دولار إلى 4.4 تريليون دولار من القيمة المضافة إلى 63 حالة استخدام قاموا بتحليلها – مقارنة بإجمالي الناتج المحلي للمملكة المتحدة في عام 2021 البالغ 3.1 تريليون دولار. وهذا من شأنه أن يزيد من تأثير الذكاء الاصطناعي بنسبة 15% إلى 40%. ستتضاعف هذه القيمة المقدرة تقريبًا إذا قمنا بدمج الذكاء الاصطناعي التوليدي في البرامج المستخدمة حاليًا لمهام أخرى.
مثير للاهتمام:
بناءً على التقديرات المذكورة أعلاه، فإن هذا يعني أن القيمة السوقية الإجمالية للذكاء الاصطناعي العالمي (وليس الذكاء الاصطناعي التوليدي فقط) قد تصل إلى عشرات التريليونات من الدولارات.
بالمقارنة، تبلغ القيمة الإجمالية لجميع العملات المشفرة (بما في ذلك البيتكوين وجميع العملات البديلة) مجتمعة اليوم حوالي 2.7 تريليون دولار فقط.
لذا، لنكن واقعيين: الغالبية العظمى من العملاء الذين يحتاجون إلى الذكاء الاصطناعي على المدى القصير سيكونون عملاء Web2، لأن الذكاء الاصطناعي إن عملاء Web3 المطلوبين في الواقع ليسوا سوى جزء صغير من هذا السوق البالغ 2.7 تريليون (مع الأخذ في الاعتبار أن BTC تستحوذ على نصف حصة السوق، وأن BTC نفسها لا تتطلب/تستخدم الذكاء الاصطناعي).
لقد بدأت للتو حالات استخدام الذكاء الاصطناعي في Web3، وليس من الواضح حجم حجم السوق الذي سيكون عليه. ولكن هناك شيء واحد مؤكد بديهيًا - في المستقبل المنظور، سيكون جزءًا فقط من سوق Web2. نعتقد أن Web3 AI لا يزال لديه مستقبل مشرق، ولكن هذا يعني أن التطبيق الأكثر شيوعًا لـ Web3 AI في الوقت الحالي هو خدمة عملاء Web2.
تتضمن أمثلة عملاء Web2 الذين يمكنهم الاستفادة من الذكاء الاصطناعي لـ Web3 ما يلي:
المؤسسات الكبيرة (مثل Netflix) التي تعمل على تحسين النماذج لأغراضها الخاصة
عروض الذكاء الاصطناعي سريعة النمو شركات البرمجيات (مثل Anthropic)
شركات البرمجيات التي تضيف وظائف الذكاء الاصطناعي إلى المنتجات الحالية (مثل Canva )
li>هذه مجموعة عملاء مستقرة نسبيًا لأن هؤلاء العملاء عادة ما يكونون كبارًا وذوي قيمة. ومن غير المرجح أن يتوقفوا عن العمل في أي وقت قريب ويمثلون قاعدة عملاء محتملة كبيرة جدًا لخدمات الذكاء الاصطناعي. ستستفيد خدمات Web3 AI التي تخدم عملاء Web2 من قاعدة العملاء المستقرة هذه.
ولكن لماذا يرغب عملاء Web2 في استخدام مجموعة تقنيات Web3؟ ويوضح الجزء المتبقي من هذه المقالة هذا الأساس المنطقي.
تقوم وحدات GPU DePINs بتجميع قوة حوسبة GPU غير المستغلة (أكثرها موثوقية تأتي من مراكز البيانات) وتجعل هذه الموارد متاحة لاستدلال الذكاء الاصطناعي. فكر في الأمر ببساطة على أنه "Airbnb of GPUs" (أي الاستهلاك التعاوني للأصول غير المستغلة).
الأسباب التي تجعلنا متحمسين بشأن GPU DePINs كما هو مذكور أعلاه، ويرجع ذلك أساسًا إلى نقص شرائح NVIDIA، وهناك حاليًا العديد من دورات GPU التي يتم إهدارها، وهذه الموارد يمكن استخدامها لاستدلال الذكاء الاصطناعي. لقد أدى أصحاب الأجهزة هؤلاء إلى انخفاض التكاليف وهم حاليًا لا يستخدمون معداتهم بشكل كافٍ، لذلك يمكن توفير دورات GPU الجزئية هذه بتكلفة أقل من الوضع الراهن لأنها تمثل "مكاسب غير متوقعة" لمالك الأجهزة.
تتضمن الأمثلة المحددة ما يلي:
1) جهاز AWS: إذا استأجرت واحدًا من AWS اليوم مع H100، عليك الالتزام بتأجيره لمدة عام على الأقل لأن السوق ضيق. يؤدي هذا إلى الهدر لأنه من غير المرجح أن تستخدم وحدة معالجة الرسومات الخاصة بك 7 أيام في الأسبوع، 365 يومًا في السنة.
2) أجهزة تعدين Filecoin: تتمتع شبكة Filecoin بكمية كبيرة من العرض المدعوم، لكن الطلب الفعلي ليس كبيرًا. لسوء الحظ، لم تجد شركة Filecoin أبدًا منتجًا مناسبًا للسوق، لذلك كان القائمون بتعدين Filecoin معرضين لخطر الإفلاس. تم تجهيز هذه الأجهزة بوحدات معالجة الرسومات التي يمكن إعادة استخدامها لمهام استدلال الذكاء الاصطناعي المنخفضة.
3) أجهزة تعدين ETH: عندما انتقلت ETH من إثبات العمل (PoW) إلى إثبات الحصة (PoS)، أصبحت كمية كبيرة من الأجهزة متاحة على الفور. يمكن إعادة استخدامها لاستدلال الذكاء الاصطناعي.
يتميز سوق GPU DePIN بقدرة تنافسية عالية، حيث يقدم العديد من اللاعبين المنتجات. على سبيل المثال Aethir وExabits وAkash. اختار Hack VC دعم io.net، الذي يقوم أيضًا بتجميع العرض من خلال شراكات مع وحدات GPU DePIN الأخرى، لذا فهو يدعم حاليًا أكبر عرض من وحدات معالجة الرسومات في السوق.
تجدر الإشارة إلى أنه ليست كل أجهزة GPU مناسبة لاستدلال الذكاء الاصطناعي. أحد الأسباب الواضحة هو أن وحدات معالجة الرسومات القديمة لا تحتوي على ذاكرة GPU كافية للتعامل مع نماذج اللغات الكبيرة (LLMs)، على الرغم من وجود بعض الابتكارات المثيرة للاهتمام في هذا المجال. على سبيل المثال، قامت شركة Exabits بتطوير تقنية لتحميل الخلايا العصبية النشطة في ذاكرة وحدة معالجة الرسومات والخلايا العصبية غير النشطة في ذاكرة وحدة المعالجة المركزية. يتنبأون بالخلايا العصبية التي يجب أن تكون نشطة/غير نشطة. يتيح ذلك معالجة أعباء عمل الذكاء الاصطناعي باستخدام وحدات معالجة الرسومات المنخفضة حتى مع ذاكرة وحدة معالجة الرسومات المحدودة. يؤدي هذا في الواقع إلى زيادة فائدة وحدات معالجة الرسومات المنخفضة لاستدلال الذكاء الاصطناعي.
بالإضافة إلى ذلك، ستحتاج Web3 AI DePINs إلى تحسين عروضها بمرور الوقت لتوفير خدمات على مستوى المؤسسات مثل تسجيل الدخول الموحد (SSO)، والامتثال لـ SOC 2، اتفاقيات مستوى الخدمة (SLAs)، وما إلى ذلك. سيكون هذا مشابهًا للخدمات السحابية التي يتمتع بها عملاء Web2 حاليًا.
حول الذكاء الاصطناعي وقد نوقشت مسألة الرقابة كثيرا. على سبيل المثال، حظرت تركيا مؤقتًا شركة OpenAI في مرحلة ما (رفعت الحظر لاحقًا بعد أن قامت شركة OpenAI بتحسين امتثالها). ونحن نعتقد أن هذا التدقيق على مستوى الدولة غير مبرر بالأساس، حيث تحتاج البلدان إلى تبني الذكاء الاصطناعي لتظل قادرة على المنافسة.
الأمر الأكثر إثارة للاهتمام هو أن OpenAI ستفرض رقابة على نفسها. على سبيل المثال، لن تتعامل OpenAI مع محتوى NSFW (غير المناسب للعرض في مكان العمل)، ولن تتنبأ بنتيجة الانتخابات الرئاسية المقبلة. نعتقد أن هناك سوقًا مثيرًا للاهتمام وضخمًا في مجالات تطبيقات الذكاء الاصطناعي التي لا ترغب OpenAI في إشراكها لأسباب سياسية.
المصدر المفتوح هو وسيلة جيدة لحل هذه المشكلة، لأن مستودع Github لا يخضع لسيطرة المساهمين أو مجلس الإدارة. أحد الأمثلة على ذلك هو موقع Venice.ai، الذي يعد بحماية خصوصية المستخدم والعمل بطريقة لا تخضع للرقابة. المفتاح، بالطبع، هو طبيعته مفتوحة المصدر، مما يجعل كل هذا ممكنًا. يمكن لـ Web3 AI تحسين ذلك بشكل فعال عن طريق تشغيل نماذج البرامج مفتوحة المصدر (OSS) على مجموعات GPU منخفضة التكلفة للاستدلال. ولهذا السبب، نعتقد أن OSS + Web3 هو المزيج المثالي لتمهيد الطريق إلى الذكاء الاصطناعي الخالي من الرقابة.
تمتلك العديد من الشركات الكبيرة مخاوف الخصوصية بشأن بيانات الشركة الداخلية. بالنسبة لهؤلاء العملاء، من الصعب الوثوق بطرف ثالث مركزي مثل OpenAI للتعامل مع هذه البيانات.
بالنسبة لهذه المؤسسات، قد يبدو استخدام web3 أكثر رعبًا، حيث تظهر بياناتها الداخلية فجأة على شبكة لا مركزية. ومع ذلك، بالنسبة للذكاء الاصطناعي، كانت هناك بعض الابتكارات في تقنيات تحسين الخصوصية:
بيئات التنفيذ الموثوقة (TEEs) مثل البروتوكول الفائق
شركات متجانسة تمامًا مثل Fhenix.io (شركة محفظة استثمارية يديرها Hack VC) أو Inco Network (كلاهما مدعوم من Zama.ai) وBagel's PPML Encryption (FHE)
لا تزال هذه التقنيات في طور التطور، ويستمر الأداء في التحسن من خلال صفر المعرفة (ZK) وFHE ASICs القادمة. لكن الهدف على المدى الطويل هو حماية بيانات المؤسسة مع تحسين النموذج. مع ظهور هذه البروتوكولات، قد يصبح web3 مكانًا أكثر جاذبية لحوسبة الذكاء الاصطناعي التي تحافظ على الخصوصية.
في الماضي منذ عدة سنوات، كانت البرمجيات مفتوحة المصدر (OSS) تأكل حصة سوق البرمجيات الاحتكارية. نحن نعتبر LLM بمثابة برنامج خاص متقدم أصبح هدفًا مدمرًا للبرامج مفتوحة المصدر. ومن بين المنافسين الجديرين بالملاحظة Llama وRWKV وMistral.ai. ستنمو هذه القائمة بلا شك بمرور الوقت (تتوفر قائمة أكثر شمولاً على Openrouter.ai). ومن خلال الاستفادة من الذكاء الاصطناعي web3 المدعوم بنماذج مفتوحة المصدر، يمكن للأشخاص الاستفادة الكاملة من هذه الابتكارات الجديدة.
نعتقد أنه بمرور الوقت، يمكن لقوة عالمية من جهود تطوير المصادر المفتوحة، جنبًا إلى جنب مع حوافز العملات المشفرة، أن تقود النماذج مفتوحة المصدر والوكلاء المبنيين على أعلى لهم والابتكار السريع للأطر. مثال على بروتوكول وكيل الذكاء الاصطناعي هو Theoriq. تستفيد Theoriq من النماذج مفتوحة المصدر لإنشاء شبكة من عوامل الذكاء الاصطناعي المترابطة بشكل قابل للتركيب والتي يمكن تجميعها معًا لإنشاء حلول ذكاء اصطناعي أكثر تقدمًا.
يعتمد سبب اعتقادنا القوي بهذا على الخبرة السابقة: لقد تجاوزت البرامج مفتوحة المصدر معظم "برامج المطورين" بمرور الوقت. هناك سبب وراء كون Microsoft شركة برمجيات مملوكة، وهي الآن المساهم الأكبر في Github. إذا نظرت إلى كيفية قيام Databricks وPostGresSQL وMongoDB وما إلى ذلك بتعطيل قواعد البيانات الخاصة، فستجد أن الصناعة بأكملها هي مثال على التعطيل بواسطة البرامج مفتوحة المصدر، وبالتالي فإن السابقة قوية جدًا هنا.
ومع ذلك، هناك مشكلة صغيرة. إحدى المشكلات الشائكة مع OSS LLMs هي أن OpenAI بدأت في توقيع اتفاقيات ترخيص البيانات المدفوعة مع منظمات، مثل Reddit وNew York Times. إذا استمر هذا الاتجاه، فقد يصبح من الصعب بشكل متزايد على OSS LLMs التنافس بسبب الحواجز الاقتصادية التي تحول دون الوصول إلى البيانات. قد تستخدم NVIDIA الحوسبة السرية كأداة محسنة لمشاركة البيانات بشكل آمن. سيخبرنا الوقت كيف يتطور هذا.
في منطق web3 AI، يمثل التحقق تحديًا. من الممكن أن يحصل المدقق على رسوم عن طريق انتحال النتائج، لذا فإن التحقق من الاستدلال هو إجراء مهم. ومن المهم أن نلاحظ أنه على الرغم من أن استدلال الذكاء الاصطناعي لا يزال في مراحله الأولى، فإن مثل هذا الخداع أمر لا مفر منه ما لم يتم اتخاذ خطوات لإضعاف الحوافز لمثل هذا السلوك.
تتمثل منهج web3 القياسي في جعل العديد من المدققين يكررون نفس العملية ويقارنون النتائج. ومع ذلك، كما ذكرنا سابقًا، يعد استنتاج الذكاء الاصطناعي مكلفًا للغاية بسبب النقص الحالي في رقائق Nvidia المتطورة. نظرًا لأن web3 يمكن أن يوفر استدلالًا أقل تكلفة عبر وحدات GPU DePIN غير المستغلة بشكل كافٍ، فإن الحسابات الزائدة ستؤدي إلى إضعاف عرض قيمة web3 بشدة.
الحل الأكثر واعدة هو إجراء إثباتات المعرفة الصفرية لحسابات استدلال الذكاء الاصطناعي خارج السلسلة. في هذه الحالة، يمكن التحقق من براهين المعرفة الصفرية الموجزة لتحديد ما إذا كان النموذج قد تم تدريبه بشكل صحيح، أو ما إذا كان الاستدلال يعمل بشكل صحيح (يسمى zkML). تشمل الأمثلة Modulus Labs وZKonduit. وبما أن عمليات المعرفة الصفرية تتطلب موارد حسابية كبيرة، فإن أداء هذه الحلول لا يزال في بداياته. ومع ذلك، مع إدخال أجهزة ASIC ذات المعرفة الصفرية في المستقبل القريب، قد يتحسن هذا الوضع.
الفكرة الواعدة هي طريقة استنتاج الذكاء الاصطناعي "المتفائلة" القائمة على أخذ العينات. في هذا النموذج، تحتاج فقط إلى التحقق من صحة جزء صغير من النتائج التي تم إنشاؤها بواسطة أداة التحقق من الصحة، ولكن عليك تعيين التكلفة الاقتصادية عالية بما يكفي لمعاقبة المدققين الذين تم ضبطهم وهم يغشون، وبالتالي خلق تأثير حظر اقتصادي قوي. بهذه الطريقة يمكنك حفظ الحسابات الزائدة (انظر، على سبيل المثال، ورقة "إثبات أخذ العينات" الخاصة بالقطع الزائد).
هناك فكرة واعدة أخرى وهي الحل باستخدام تقنية العلامات المائية وبصمات الأصابع، مثل تلك التي اقترحتها شبكة Bagel. وهذا مشابه للآلية التي توفرها Amazon Alexa لضمان جودة نماذج الذكاء الاصطناعي الخاصة بها على ملايين الأجهزة.
الفرصة التالية التي يجلبها web3 إلى الذكاء الاصطناعي هي إضفاء الطابع الديمقراطي على خفض التكاليف. لقد ناقشنا حتى الآن طرقًا لتوفير تكاليف وحدة معالجة الرسومات من خلال DePINs مثل io.net. ومع ذلك، يوفر web3 أيضًا الفرصة لتوفير هوامش الربح على خدمات web2 AI المركزية (مثل OpenAI، التي تحقق إيرادات سنوية تزيد عن مليار دولار بناءً على المعلومات في وقت كتابة هذه السطور). تأتي وفورات التكاليف هذه من استخدام نماذج البرمجيات مفتوحة المصدر (OSS) بدلاً من النماذج المملوكة، مما يؤدي إلى توفير إضافي في التكاليف لأن منشئي النماذج لا يحاولون تحقيق الربح.
ستكون العديد من نماذج البرامج مفتوحة المصدر دائمًا مجانية تمامًا، مما يوفر أفضل الاقتصاديات للعملاء. ومع ذلك، قد تكون هناك أيضًا بعض نماذج البرامج مفتوحة المصدر التي تحاول استخدام طرق تحقيق الدخل هذه. ضع في اعتبارك أن 4% فقط من العارضات في Hugging Face يتم تدريبهن من قبل شركات ذات ميزانية للمساعدة في دعم هذه العارضات (انظر هنا). يتم تدريب 96٪ المتبقية من النماذج من قبل المجتمع. تواجه مجموعة نموذج Hugging Face هذه بنسبة 96% تكاليف حقيقية (بما في ذلك التكاليف الحسابية وتكاليف البيانات). لذلك تحتاج هذه النماذج إلى تحقيق الدخل بطريقة ما.
هناك العديد من المقترحات لتحقيق الدخل من نموذج البرمجيات مفتوحة المصدر هذا. أحد أكثر هذه الأمور إثارة للاهتمام هو مفهوم "عرض النموذج الأولي" (IMO)، والذي يتمثل في ترميز النموذج نفسه، وترك جزء من الرموز المميزة للفريق، وتدفق بعض الإيرادات المستقبلية للنموذج إلى الرمز المميز أصحاب، على الرغم من وجود بعض العقبات القانونية والتنظيمية الواضحة.
ستحاول نماذج البرامج مفتوحة المصدر الأخرى تحقيق الدخل بناءً على الاستخدام. التحذير هو أنه إذا تحقق هذا السيناريو، فقد تبدأ نماذج البرمجيات مفتوحة المصدر في الظهور أكثر فأكثر مثل نظيراتها المدرة للربح على شبكة web2. ومع ذلك، من منظور واقعي، سيتم تقسيم السوق إلى قسمين، وستكون بعض هذه النماذج مجانية تمامًا.
بمجرد اختيار نموذج برنامج مفتوح المصدر، يمكنك إجراء عمليات هرمية قابلة للتركيب عليه. على سبيل المثال، يمكنك استخدام Ritual.net لاستدلال الذكاء الاصطناعي، وTheoriq.ai كشركة رائدة في وكلاء الذكاء الاصطناعي المستقلين والقابلين للتركيب على السلسلة (كلاهما مدعومان بواسطة Hack VC).
التحدي الأكبر الذي يواجه الذكاء الاصطناعي أحد التحديات تتمثل التحديات في الحصول على البيانات الصحيحة لتدريب النموذج عليها. لقد ذكرنا من قبل أن هناك بعض التحديات في التدريب اللامركزي على الذكاء الاصطناعي. ولكن ماذا عن الاستفادة من شبكة الويب اللامركزية للحصول على البيانات (والتي يمكن استخدامها بعد ذلك للتدريب في مكان آخر، حتى على منصات web2 التقليدية)؟
هذا هو بالضبط ما تفعله الشركات الناشئة مثل Grass (المدعومة من Hack VC). Grass عبارة عن شبكة لا مركزية "للزحف إلى البيانات" حيث يساهم الأفراد بقدرة المعالجة الخاملة لأجهزتهم للحصول على البيانات اللازمة للتدريب على نماذج الذكاء الاصطناعي. من الناحية النظرية، على نطاق واسع، يمكن أن يكون هذا النوع من جمع البيانات متفوقًا على الجهود الداخلية لأي شركة بسبب القوة الحاسوبية الهائلة لشبكة واسعة من العقد المحفزة. ولا يتضمن ذلك الحصول على مزيد من البيانات فحسب، بل يشمل أيضًا الحصول عليها بشكل متكرر لجعلها أكثر صلة وتحديثًا. نظرًا لأن عقد الزحف إلى البيانات هذه لا مركزية بطبيعتها ولا تنتمي إلى عنوان IP واحد، فمن المستحيل تقريبًا إيقاف هذا الجيش اللامركزي الذي يزحف إلى البيانات. بالإضافة إلى ذلك، لديهم شبكة من البشر الذين يقومون بتنظيف البيانات وتطبيعها لجعلها مفيدة بعد الزحف إليها.
بمجرد حصولك على البيانات، ستحتاج أيضًا إلى موقع تخزين على السلسلة، وLLM (نموذج اللغة الكبير) الذي تم إنشاؤه باستخدام تلك البيانات. وفي هذا الصدد، يعتبر 0g.AI رائدًا مبكرًا. إنه حل تخزين web3 عالي الأداء مُحسّن للذكاء الاصطناعي وهو أرخص بكثير من AWS (نجاح مالي آخر لـ Web3 AI) بينما يعمل أيضًا كأساس لتوفر البيانات لمنشأة الطبقة 2 والذكاء الاصطناعي وما إلى ذلك.
تجدر الإشارة إلى أن دور البيانات في web3 AI قد يتغير في المستقبل. حاليًا، الوضع الراهن لـ LLM هو استخدام البيانات للتدريب المسبق للنموذج وتحسينه بمرور الوقت باستخدام المزيد من البيانات. ومع ذلك، نظرًا لأن البيانات الموجودة على الإنترنت تتغير في الوقت الفعلي، فإن هذه النماذج تكون دائمًا قديمة بعض الشيء، وبالتالي فإن استجابات استدلال LLM غير دقيقة إلى حد ما.
النموذج الجديد الذي قد يتطور في المستقبل هو البيانات "في الوقت الفعلي". المفهوم هو أنه عندما يُطلب من LLM إجراء الاستدلال، يمكن لـ LLM استخدام البيانات عن طريق حقنها بالبيانات المجمعة من الإنترنت في الوقت الفعلي. بهذه الطريقة، سوف يستخدم LLM أحدث البيانات. العشب يعمل على هذا أيضا.
نأمل أن يساعدك هذا التحليل في التفكير فيما يعد به web3. الذكاء الاصطناعي يساعد عند التعامل مع الواقع. هذه مجرد نقطة بداية للمناقشة، والمجال يتغير بسرعة، لذا لا تتردد في الانضمام إلينا والتعبير عن آرائك لأننا نرغب في مواصلة التعلم والبناء معًا. ص>
قد يكون الذكاء الاصطناعي اللامركزي هو المجال الأسرع نموًا الذي سنراه في عالم العملات المشفرة.
JinseFinanceمن الواضح أن هناك الكثير من القواسم المشتركة بين blockchain والتعلم الآلي: أحدهما هو التكنولوجيا التي تخلق الثقة، والآخر هو التكنولوجيا التي تتطلب الثقة بشدة.
JinseFinanceإن إيقاظ القدرة على التفكير النقدي والتحكم في تداخل العواطف هو أداة لنا للمضي قدمًا بثبات في العالم المشفر، كما أنه أقوى سلاح يمكن أن يمتلكه الإنسان ويقاومه عند مواجهة تحدي الذكاء الاصطناعي.
JinseFinanceفي عالم مضطرب، الموسيقى هي موطن الروح. فهو متنفس للعواطف وبلسم للروح. وفي لحن الموسيقى نجد صدى ونلمس عمق المشاعر التي لا يمكن التعبير عنها بالكلمات.
JinseFinanceإن تطبيق الذكاء الاصطناعي في التعليم يجلب معه الفرص والتحديات. على الرغم من تقديم التعلم المخصص، إلا أن الدراسة الدقيقة لخصوصية الطلاب وأمن البيانات أمر ضروري. تعد الجهود التعاونية التي تبذلها الحكومات الفيدرالية وحكومات الولايات، إلى جانب مشاركة أولياء الأمور، أمرًا بالغ الأهمية لتسخير فوائد الذكاء الاصطناعي في التعليم بشكل مسؤول وأخلاقي.
Cheng Yuanويواجه عمالقة التكنولوجيا في الصين، بما في ذلك بايدو، وشاومي، وكوايشو، التحديات الاقتصادية في حين يحتضنون التعاون في مجال الذكاء الاصطناعي مع الولايات المتحدة. إن الرقص الدقيق بين التحديات والتقدم يثير تساؤلات حول مستقبل الابتكار العالمي.
Berniceويظل تحقيق التوازن بين تسخير مزايا الذكاء الاصطناعي ومعالجة التحديات المحتملة جانبًا محوريًا في هذه الديناميكية المتطورة.
Catherineتتخلى البورصات المشفرة عن الموظفين كجزء من تدابير خفض التكاليف.
Beincryptoبين عشية وضحاها ، تم أخذ 21 مليون دولار من DEX Transit Swap متعدد السلاسل.
OthersSnoop与数字多媒体艺术家Coldie的首次NFT合作“Decentralized Dogg”于今天在SuperRare上发布。
Cointelegraph