原題: PlatON ホワイトペーパー 2.0 の解釈: 分散型プライバシー AI ネットワークの実現
執筆者: Jason、PlatON コミュニティ愛好家
PlatON は最近、 ホワイト ペーパー バージョン 2.0 をWeb サイト上で公開しましたが、この新しいホワイト ペーパーは、以前の初版をベースに、グローバル コミュニティの開発者やテクノロジー愛好家からの提案を盛り込み、一部の詳細を修正しました。
PlatON2.0は、PlatONの次の段階における重要な戦略的展開であり、分散型プライバシーコンピューティングネットワークの構築を通じて分散型人工知能市場を形成し、自己組織化かつ協調的な汎用人工知能ネットワークを実現します。ユーザーがPlatON2.0を完全に理解し、一般的な人工知能への道を開き、テクノロジーの鍵を見つけられるようにするために、PlatONはホワイトペーパーの解釈トピックを開きます。
記事を読むときに最初に注目するのは、具体的な内容ではなく、その構造です。
構造的な観点から見ると、記事の最初の 3 章の構造は進歩的で、次の数章は並行しており、2 つの部分は合計スコアの形で接続されています。
まず背景や傾向を議論し、観察・知覚できる現象の分析から本質的な要件を導き出し、提案するPlatONの必然性や合理性を導き出し、当然その要件に従って問題を解決することになります。これが最初の 3 章の重要性です。
次に、次の章では、PlatON の展開または実装について、技術レベル、アプリケーション レベル、経済モデル、社会活動レベル、計画と進捗レベルの順に説明します。最後に、業界の慣例に従って、引用文献を記載します。これは、引用された論文の著者の知的財産権を尊重することを示す一方で、引用された議論に疑問を抱いている友人にとって便利です。遡って確認します。
次に、このコンテキストを分析します。
全体的な背景
記事の冒頭で、私たちが生きている時代はデータ爆発の時代であるとまず指摘しましたが、これには誰もが共感します。このホワイトペーパーでは、2 つの有名なデータ分析機関である Statista と IDC (International Data Corporation) からの信頼できるデータ統計と予測が提供されています。
一般的には、データ量が将来的に指数関数的に増加するという見方や現象を表しており、5Gやモノのインターネットなどの新たな技術やアプリケーションによって生まれる新たなデータは商業的意義が大きい。非常に保護を必要としています。しかし、現在のデータ管理モデルが継続すると、2025 年までに、保護されるべきデータのほぼ半分が保護されなくなるでしょう。
これは非常に深刻な現象であり、将来の業界全体の進歩にとって問題点でもあります。もちろん、別の観点から見ると、これは非常に重要な機会でもあります。
人工知能とデータ
経済や産業の全体的な発展傾向から見ると、データプライバシー保護の重要性は確かに理にかなっていますが、その結果、曖昧になりやすいという問題があります。
確かに、広い観点から見ると、基本機能としてのデータプライバシー保護は、デジタルエコノミー時代のあらゆるアプリケーションに必要かつ適用可能であると言えますが、最初のアプリケーションを実現するには、プライバシーコンピューティングの焦点を絞ったエントリーポイントを見つける必要があります。画期的な成果と効果を集中的に紹介。
近年のホットスポットとしての AI、人工知能は、政策産業計画と産業応用の両方にその現れを見せています。
また、これが重要なことですが、AI はデータと絶え間なく不合理に接続します。人工知能は常にロジックと機械学習に基づいた開発アイデアを持っていました。初期の AI は主にエキスパート システムやナレッジ グラフなどのロジックに基づいていました。その中心となるのは主に人間の経験に依存するルールの作成であり、アルゴリズム自体は多くのデータを必要としませんでした。
21世紀に入ってから、特に近年では、データの収集・保存の利便性、コンピュータの性能向上、ソフトウェア処理アーキテクチャの向上により、機械学習に基づくAIが再び台頭し始め、その中でも、誰もが聞いたことがある有名な代表的なものは、多くの囲碁名人を破ったAlphaGoであり、ディープラーニングの背後にあります。
機械学習の中心的な考え方は、機械が関連データを通じて継続的に学習できるようにすることです。学習後のテストの答えが正しければ、記憶を強化し、学習後のテストの答えが間違っていれば、修正します。正解できるようになるまでの学習方法。
実際、それは私たちの読書や学習と本質的に同じです。
幼稚園の頃から本を読んだり勉強したりするようになり、読む本が増え、その内容もどんどん難しくなり、同時に私たちの知識や認知レベルも徐々に向上していきます。
機械学習に基づく人工知能についても同様で、人工知能のレベルが高くなるほど、より多くのカテゴリ、より多くの量、より質の高いトレーニング用データを見つける必要があると考えられます。
実際のところ、多くの企業のAI自体はモデルアーキテクチャやアルゴリズム設計において差がほとんどないのが現状ですが、実際に差が広がるのはAIモデルの学習レベル、つまりAIモデルの学習にどれだけのデータを利用できるかということです。
問題と問題点
前述したように、現在の人工知能は、知能レベルを効果的に向上させるための鍵となるトレーニングのために、さまざまな種類の高品質な大量のデータを必要とし、その重要性はアルゴリズム自体の設計を超えることがよくあります。しかし問題は、データがどこから来たのかということです。
インターネット大手には、独自のプラットフォームを持ち、ユーザー データを常に収集しているため、当然の利点があり、これらの企業は依然として多数の買収や投資を通じてデータ領域を拡大しています。
私たち一般人は、一見自由に見えるさまざまなビジネスモデルに長年慣れ親しんでいるため、あまり深い感情を抱かないのですが、実はそれが3つの根深い問題を引き起こしているのです。
1つ目は、データ独占現象によってもたらされるAI独占問題です。インターネット大手は当然データリソースを持っているため、独自のAIを開発しやすくなり、当然彼らのAIの知能も高くなり、AI分野でマシュー効果が起こり、最終的にはAI全体がモバイルインターネット時代の間違いは、国民の衣食住や交通の価格決定力に影響を与えるだけでなく、私たちの意思決定や考え方にも大きな影響を与えるだろう。この巨人たちによって。
2つ目は、データプライバシーの懸念によってもたらされるAIの上限問題です。一般の人々にとって、個人データの体系的な管理能力の欠如により、私たちのほとんどは利便性のためにデータを取引することを選択します. この損失は隠されており、通常は明らかではありませんが、企業にとっては、科学研究、生産、その他の一連のデータ実際、運営、人事、財務は最も重要な企業秘密であり、その中核となるデータを積極的に共有しようとする企業はほとんどありません。
したがって、企業のさまざまな部門間や企業間にデータの島が存在することがよく見られます。インターネット大手であっても相互に境界線が存在し、カテゴリーを超えた大量の質の高いデータが長期間凍結され、AIの学習に利用できなくなることが、将来を制約する重大なポイントとなるはずだ。 AIの開発。
最後に、データの所有権、使用権、用益権の問題があります。前述したように、個人個人のデータにはそれほど価値があるようには見えませんが、さまざまなインターネット大手の手によって、私たちのデータを通じて資金調達や実現などの一連の行動が実現されています。データは本当は価値のあるものですが、現在ではさまざまな客観的な制約や主観的な操作により、その価値が曖昧になってきていますが、今後のデータ爆発の時代において、データの価値が無視できなくなると、価値を明確にし、シリーズ権を保証できるかどうか、これも問題です。
解決
PlatON 2.0 ホワイトペーパーから、PlatON のビジョンが分散型の協調的な人工知能ネットワークとグローバルな頭脳を構築することであることを理解するのは難しくありません。その中心的な考え方は、データを資産化してデータの自由な流通を実現し、AI アルゴリズムの成熟と応用を大幅に加速することです。
これは、前述の問題に対する体系的な解決策です。
基礎となるデータの資産化を実現することが最初のステップであることがわかります。データ自体が価値ある生産要素であることは間違いありませんが、価値があるから資産化できるというわけではなく、資産化には2つの鍵があり、1つは正当性の確認、もう1つは保護です。つまり、データの所有権をどのように確立するか、また主権をどのような手段で保護するかということです。
通常の資産であれば、法的手段によって上記の目的を達成することができますが、データのような無形資産の場合は、データのコピーや配布が極めて簡単であり、事後の責任追及が面倒であるため、法律だけで成立させることはより困難です。以前のイベントは言うまでもなく、保護されています。
そのため、権利を技術的手段で確認・保護するという認識が主流となっており、PlatONはブロックチェーン+プライバシーコンピューティング技術をベースに実現されています。その中で、プライバシーコンピューティング技術はデータの権利確認と保護を実現するための鍵であり、ブロックチェーンの役割はリソースのスケジューリングとデータの流通を促進することです。
テクノロジー スタックの機能が異なるため、アーキテクチャから切り離す目的で、PlatON は 3 つのレイヤーに分解され、それぞれがその役割を実行します。
最初の層はコンセンサス層で、ノード、コンセンサス メカニズム、スマート コントラクト仮想マシンなどのブロックチェーン テクノロジー スタックが配置されます。
2 番目の層はプライバシー コンピューティング ネットワークで、プライバシー コンピューティング テクノロジーが配置されます。これには、プライバシー テクノロジーの実装が依存するアルゴリズムとデータ、アルゴリズムとデータ ノードを展開および実行するコンピューティング ノードが含まれます。データを提供するアルゴリズムはすべて暗号化技術に基づいており、安全なマルチパーティ計算、準同型暗号化、ゼロ知識証明などが含まれます。
3 番目の層は協調的な AI ネットワークです。率直に言うと、これは AI モデルの棚です。これらの AI モデルは、前の 2 つの層に基づいてトレーニングできます。この棚は継続的に更新できます。
特徴
PlatONはプライベートAIコンピューティングネットワークとして位置づけられており、プライベートコンピューティングを核としていますが、同時にチューリング完全なパブリックチェーンプラットフォームでもあることに注意が必要です。ビューでは、イーサリアムに似ており、仮想マシンとスマート コントラクトをサポートしています。機能的に類似しているということは、実装時に同様の問題に直面することを意味します。
これはイーサリアムが長い間避けられなかった問題であり、過去 2 年間で DeFi や NFT などのさまざまなアプリケーションが爆発的に普及してからは、ますます制御不能になっている問題でもあります。 TPS、つまりスケーラビリティ。
イーサリアム 2.0 ではこの問題を改善するために断片化が使用されますが、現在、イーサリアム 1.0 ではレイヤー 2 を使用してこの問題が改善されています。
具体的には、PlatON はレイヤード アプローチを採用しています。厳密に言えば、レイヤー 2 ソリューションでもあります。コアは依然として上記のレイヤード アーキテクチャを介しています。デカップリングが達成される一方で、ネットワーク全体のパフォーマンスも大幅に向上します。水平方向のスケーラビリティ。オンチェーンとオフチェーンは、暗号化に基づく検証可能コンピューティング (VC) によってリンクされます。つまり、特定のパーソナライズされたコンピューティング タスクがオフチェーンで実行され、タスクの完了がチェーン上で検証され、合意に達します。オフチェーンを簡単に拡張できるため、希少なオンチェーン リソースの占有が軽減されます。
核心部分であるプライバシー コンピューティングに戻ります。実際、プライバシー コンピューティングは新しいテクノロジではありません。この側面に関する研究は何年も続いています。業界の現在のプライバシー コンピューティング関連プロジェクトを見ると、技術的なパスは一般的に分けられます。 2 つのカテゴリに分けられ、1 つは TEE (信頼された実行環境) ハードウェアに基づいており、その中でよく知られている TEE は Intel の SGX です。
TEE ベースのプライバシー コンピューティング実装の利点は、エンジニアリングでの実装が容易であることですが、欠点は、ハードウェア メーカーへの集中依存をもたらし、TEE 自体のパフォーマンスによって制限されることであり、スケーラビリティに問題があります。暗号化技術に基づく実装の利点は、安全性が高く、集中化への依存がなく、拡張性の余地が高いことですが、欠点は、現在の技術レベルではプロジェクトの実装が理想的ではなく、プロジェクトの実装が困難であることです。効率性と汎用性の両方を実現します。暗号化の道を歩むには、十分な科学研究基盤と継続的な資金が必要です。
以上、PlatON2.0の特徴を整理しましたが、ホワイトペーパーの内容を簡単にまとめると以下のようになります。
- WASM および EVM 仮想マシンをサポートし、イーサリアムとの優れた互換性を備えています。
- 強力なシステム拡張性を備えた、オンチェーンとオフチェーンを分離する階層化システム アーキテクチャ。
- 上限の高い暗号技術をベースとしたプライバシー保護ソリューション。
周辺ツール
プライベート コンピューティングの概念は非常に理解しやすく、その有用性は容易に受け入れられます。
しかし、これは、プライバシー コンピューティングの技術的敷居が実際には非常に高いという隠された事実を変えるものではなく、一般の AI 実践者にとって、プライバシー コンピューティングを通じて AI モデルのトレーニングを達成したい場合は、AI 関連の知識に加えて、また、プライバシー フレームワークを AI モデルにうまく統合するには、暗号化に関して高い達成度も必要ですが、これは実際にはプライバシー コンピューティング アプリケーションの推進にとって非常に不利です。
ホワイトペーパーのプライバシー AI 開発フレームワークである Rosetta については、ここで個別に言及しています。私の意見では、Rosetta は非常に重要です。実際には、PlatON ネットワークから独立して存在することができ、あまり関係がないようですが、は実はシステム全体の成長を加速させる上で非常に重要なので、別途話す必要があります。
簡単に言うと、Rosetta は実際には、TensorFlow などのビッグ データ処理フレームワーク、統計的機械学習、人工ニューラル ネットワークに基づく深層学習などの一般的に使用される AI アルゴリズム、安全なマルチパーティ コンピューティングなどの暗号アルゴリズムです。 、準同型暗号化、および基盤となるハードウェア スケジューリング フレームワークは、内部融合処理を使用してパッケージ化および統合されており、一般的に使用される一部の呼び出しインターフェイスのみが外部に公開されるため、AI エンジニアは AI アルゴリズムを開発する際に考慮する必要があるのは、より複雑な暗号アルゴリズムを学ぶ必要がなく、独自のビジネスのロジックを呼び出して、対応するインターフェイスを呼び出してそれを実現します。
将来的には、開発者はシステムの第 2 層プライバシー コンピューティング ネットワークを使用して、Rosetta を通じて独自の AI モデルを簡単に開発およびトレーニングし、特定のアプリケーションで使用するために第 3 層の協調 AI ネットワークにアップロードできるようになります。
アプリケーションシナリオ
前述したように、デジタル経済システム全体は、データプライバシー保護のサポートを必要とします。デジタル経済では、データは貴重な、より直接的には価格が設定された資産であるためです。したがって、プライバシー保護を通じて、データ資産の権利と保護の確認は非常に重要です。必要。
ホワイトペーパーには、オラクルマシンやブロックチェーンゲームなどのブロックチェーン業界に関連するホットスポットのほか、従来の生物医学、金融リスク管理、スマートシティなど、いくつかの典型的なアプリケーションシナリオがリストされています。
それでは、これらのアプリケーション シナリオのどの部分でプライバシー コンピューティングが使用されるのでしょうか?実際、例外なく、リンク内では複数の関係者の対話が必要になります。
ホワイトペーパーにいくつかの事例が記載されているので繰り返しませんが、身近な状況で説明していきます。
たとえば、オラクルマシンの場合、オラクルマシンはチェーン上のユーザーにとって特定の情報のソースですが、ユーザーにとっては、それらのデータに注目し続けて取得する行為自体が一種のプライバシーであり、企業秘密が含まれる場合もあるため、現時点ではプライバシーの保護が非常に重要です。
例えば、チェーンゲームの場合、チェーンゲームの一方向がメタバースであることは誰もが知っていますが、メタバースは現実的で没入型の世界を構築しようとしています。仮想世界での復元、データを確認し保護するためのプライバシーコンピューティングがなければ、データ所有者は、現実の世界では、真に価値のあるデータを提供したくない可能性があります。
たとえば、生物医学の場合、医療の進歩の重要な部分は、多数の臨床症例の分析から得られますが、通常、大病院にはこの分野のデータが豊富にありますが、多くの中小規模の病院には比較的不足しています。患者のプライバシーと患者自身の発展の観点から、通常、病院はこれらのデータを共有することに消極的です。データの特殊性により、一度共有されると制御不能になり、医療全体のレベルの発展が大幅に制限されるためです。プライバシーコンピューティングに基づいてデータを確認および保護した後、この問題を解決することが可能です。
財務リスク管理の場合、理論的には、個人または企業のリスク評価に関する包括的な情報があればあるほど、評価結果はより正確になります。コンプライアンス記録には 5 つの側面があります。
ここで問題が発生しますが、アリは人々のつながりについてテンセントほど包括的なデータを取得できない可能性があり、資産や行動などのデータはアリのプラットフォーム以外のプラットフォームでも入手できる可能性があります。現時点では、これらのインターネット プラットフォーム間のデータは実際には切断されているため、あるプラットフォームでの高い信用が別のプラットフォームで直接受け入れられないなど、ユーザー ポートレートの正確性と汎用性が欠けている可能性があります。
プライバシー計算を使用して、すべての当事者のデータプライバシーを損なうことなく、複数のプラットフォームからのデータを包括的に活用できれば、人々のより正確かつ普遍的なポートレートを取得でき、ターゲットを絞った方法でリスクマッチング情報を提供することが容易になります。
スマートシティにとって、スマートシティ構築の目的の 1 つは、都市サービスをより便利、より正確、より効率的、より安全なものにすることです。この目標を達成するには、多くの場合、さまざまな政府部門や一部の企業の協力が必要になります。都市のセキュリティを例に挙げると、関係部門のスカイネットカメラ、道路交通カメラ、住宅用地カメラ、各種商業機関の金属探知センサー、オペレーターの通信データなどを連携させ、不審な状況や危険な状況を即座に検知できるようにする必要があります。そして、継続的な追跡、問題の発生を事前に防止すること、そしてこれらのセンサーは異なる主体に属しているため、国民のプライバシーの保護やさまざまな主題の考慮に関係なく、これらのセンサーデータのプライバシーを保護する必要があります。
エピローグ
夢も必要だし、結果も必要だ。私にとって最も楽しみにしているのは、今年末のプライベートコンピューティングネットワークの開始であり、これがPlatONの競争力の核心であると考えています。
ここについては、PlatON のプライバシー AI の展望が比較的明確になっているはずですが、より具体的な状況については、ホワイト ペーパーを詳しく読むこともできます。
最後に、私がここで話しているのは PlatON 2.0 のホワイト ペーパーであり、プライバシーに関する全体的な軌道であることをお伝えしたいと思います。この軌道は非常に困難です。本当に最後までやり遂げることができるのは誰でしょうか? 正直に言うと、私は分からない これには資本が必要です 技術、テクノロジー、ビジネスの共同推進にも、多くの忍耐と忍耐が必要ですが、いずれにせよ、これは正しい方向だと信じており、最終的には誰かが倒れます。
出典:リアンウェン
免責事項: Cointelegraph Chinese はブロックチェーンのニュース情報プラットフォームであり、提供される情報は著者の個人的な意見のみを表しており、Cointelegraph Chinese プラットフォームの立場とは何の関係もなく、投資や金融に関するアドバイスを構成するものではありません。読者の皆様におかれましては、正しい通貨概念や投資概念を確立し、リスク意識を真摯に高めていただきますようお願いいたします。