وفقًا لـ BlockBeats، أعلنت AO Ecosystem عن خطتها "AI on AO" في 21 يونيو. وتهدف المبادرة إلى إطلاق نماذج لغة كبيرة مفتوحة المصدر (LLMs) على السلسلة، بهدف جلب أي نموذج للذكاء الاصطناعي، وليس فقط LLMs. على السلسلة. تعتمد الخطة على شبكة Apus وتستخدم التخزين الدائم على السلسلة من Arweave لبناء شبكة GPU لا مركزية وغير موثوقة. هذه الشبكة مخصصة لتوفير قوة حوسبة موثوقة وفعالة ومنخفضة التكلفة للتدريب والاستدلال على الذكاء الاصطناعي.
يمكن تحميل بيانات الذكاء الاصطناعي على AO إلى نموذج Arweave عبر ArDrive. تعد هذه الخطوة خطوة مهمة نحو تحقيق اللامركزية في الذكاء الاصطناعي وجعله أكثر سهولة وكفاءة. من خلال جلب نماذج الذكاء الاصطناعي على السلسلة، يمهد نظام AO البيئي الطريق لعصر جديد من تطوير واستخدام الذكاء الاصطناعي. ويضمن استخدام التخزين الدائم على السلسلة من Arweave متانة وطول عمر نماذج الذكاء الاصطناعي هذه، مما يجعلها مصدرًا موثوقًا للتدريب والاستدلال في مجال الذكاء الاصطناعي في المستقبل.
تعد خطة "AI on AO" بمثابة شهادة على التزام نظام AO البيئي بتطوير تكنولوجيا الذكاء الاصطناعي وتطبيقاتها. من خلال توفير شبكة GPU لا مركزية وغير موثوقة، لا يعمل النظام البيئي على تعزيز كفاءة التدريب والاستدلال في مجال الذكاء الاصطناعي فحسب، بل يعزز أيضًا الشفافية والثقة في تكنولوجيا الذكاء الاصطناعي. ومن المتوقع أن يكون لهذه المبادرة تأثير كبير على صناعة الذكاء الاصطناعي، مما قد يحدث ثورة في طريقة تطوير نماذج الذكاء الاصطناعي واستخدامها.