By Haotian
最近、私はAI業界を観察していて、ますます「下降スパイラル」に陥っていることに気づいた。計算能力と「大きな」モデルに焦点を当てるという当初の主流のコンセンサスから、AI業界の一部門は、小規模、ローカル、エッジコンピューティングを好むように発展してきた。
このことは、Apple Intelligenceが5億台のデバイスをカバーし、マイクロソフトが3億3000万台のパラメータを小型化したモデル「Mu」に特化したWindows 11を発表し、Google DeepMindがロボットによる「オフグリッド」オペレーションを行っていることからもわかります。
何が違うのか?クラウドAIは、パラメータスケールとトレーニングデータ、お金を燃やす能力がコア競争力であることを綴ります。ローカルAIは、プライバシーの保護、信頼性、実用性において、エンジニアリングの最適化とシーン適応をさらに綴ります。(主な汎用モデルの幻の問題は、ペンダントシーンの浸透に深刻な影響を与えるだろう)
これは実際には、Web3のAIのためのより大きな機会であり、元の誰もが「一般化」(コンピューティング、データ、アルゴリズム)機能を綴るために、伝統的な巨大メーカーによって独占され、Google、AWS、OpenAIなどと競争したい分散化の概念を適用することは、単なる愚かな行為です、OpenAIやその他の競争は単なる愚行であり、結局のところ、リソースの優位性も、技術的な優位性も、さらにはユーザーベースもない。
しかし、ローカライズされたモデル+エッジコンピューティングの世界では、ブロックチェーン技術サービスが直面している状況は大きく異なります。
AIモデルがユーザーのデバイス上で実行されているとき、出力が改ざんされていないことをどうやって証明するのか?プライバシーを保護しながらモデル連携を実現するにはどうすればいいのか?これらの疑問こそ、ブロックチェーン技術の強みなのです。PublicAI_ の脳波デバイスHeadCapは、実際の人間のデータを収集し、「人工検証レイヤー」を構築し、すでに1400万ドルの収益を達成している。
一言で言えば、分散型コラボレーションは、AIがすべてのデバイスに本当に「浸透」したときに初めて、コンセプトから必需品になるのだろうか?
一般化路線に転がり続けるのではなく、#Web3AIプロジェクトは、ローカライズされたAIの波を支えるインフラをどのように提供できるか、なぜ真剣に考えないのでしょうか?
#Web3AI