DeFiに革命を起こす:マンタ・ネットワークの新たなパラダイムが4,500万ドルのTVLを突破
Manta NetworkのNew Paradigmは、24時間でTVLが125%急増し4500万ドルに達し、ユニークな収益モデルによって世界的な注目と多額の投資を集めた。
Kikyo
今回のゲストはHyperliquidの創業者、Jeff Yan氏です。Jeff氏のキャリアはHudson Riverでの高頻度取引(HFT)分野から始まり、その後暗号資産の世界へ転身し、この分野で大規模なマーケットメイカーの一つを築き上げました。中央集権型暗号資産取引所のインフラ、対抗的なアルゴリズム、そしてHFTの損益が実際に中期的な価格動向を予測し得る理由について深く議論しました。彼が考える現在の分散型取引所の課題について説明し、Hyperliquidの初期コンセプトを紹介しました。本エピソードは2023年5月8日に公開され、Jeff Yanの初期の多くの考え方を垣間見ることができます。
Jeff Yan:私の経歴は多くのHFT(高頻度取引)従事者と似ています:ハーバード大学でコンピュータサイエンスと数学を専攻し、卒業後すぐに伝統的金融分野で大規模なマーケットメイキング機関であるハドソンリバー・トレーディングに入社しました。当時は米国株を担当し、非常に良い経験を積めました。入社時は社員約150名でしたが、現在は大幅に拡大しています。ここで得た経験は非常に貴重で、最も興味深い課題に触れられ、工学と数学が完璧に融合する場であり、クオンツにとってほぼ「天国」でした。2018年、イーサリアムのスマートコントラクトブームに伴い、私は(イーサリアムの)Yellow Paperを読み、瞬時に「ひらめいた」。これが未来だと確信し、L2方向の取引所プロトコル開発のために退職した。
当時予測市場分野を選んだのは、Augurが既に強いプロダクト・マーケット・フィット(PMF)の兆候を示しており、一方、我々は取引所の基盤技術能力に長け、より注力していた。そのため資金調達後、サンフランシスコに移りチームを構築した。しかし数ヶ月後、私はプロジェクトを停止する決断を下しました。時期尚早だったからです:一方で規制の不確実性が極めて高く、他方でユーザー獲得が非常に困難でした。当時、多くの人はスマートコントラクトに不慣れで、関心はトークン投機に集中しており、DeFiに対する真の需要はまだ形成されていなかったため、プロジェクトは最終的に棚上げされました。
約1年前、私たちはDeFi取引機会の体系的な評価を開始しました。これは初期のCEX取引参入時の観察と類似していました——非効率なプロセスが広く存在していたのです。しかし異なる点は、一部のDeFiプロトコルにはメカニズム設計上の根本的な欠陥があり、取引体験と資本効率が制限されていたことです。同時に、FTX事件後、「鍵が自分のものでなければコインも自分のものではない」という認識やカウンターパーティリスクへの意識が市場で著しく高まり、真に分散化された製品への需要が持続的に増加しています。こうした変化を踏まえ、分散型取引所を構築する好機が到来したと判断しました。過去1~2四半期にわたり、当社はリソースを継続的に投入してこの方向性を推進。一方、高頻度取引(HFT)事業は比較的安定した運用・保守状態を維持しつつ、現在の主な投資と注力点は、この分散型取引技術スタックを着実に実装し体系化を完成させることに集中している。
Jeff Yan:私の見解では、これは確かに高頻度取引に参入する際に最初に下すべき重大な決断です。マクロレベルで見ると、両者には多くの類似点があります:本質的にインフラへの要求が非常に高く、遅延に極めて敏感である点です。しかし多くの重要な点において、両者は相反する重点を示しています:マーケットメイキングはインフラ能力をより重視し、注文執行は統計と数学的モデリングをより重視します。
どちらの道を選ぶかは、主にどの種類の業務や研究に注力したいかによって決まると考えます。マーケットメイキングを例にとると、ある程度の範囲で「提示価格を突破する」相手方注文に制約され、許容誤差が非常に小さいです。通常、レバレッジや複数銘柄・複数価格帯での注文により、大きな潜在リスクエクスポージャーが生じます。一度ミスを犯すと、テールリスクの代償は往々にして非常に高くなります。これに対し、注文執行戦略は1日に1回しか発動しない——それでもニュースや特定シグナルに基づく有効な高頻度戦略となり得る。
発動頻度が低いからこそ、モデルをより精緻に設計する余地がある:大半の時間は発動しなくても問題なく、発動時に十分なパフォーマンスを発揮すればよい。逆に、マーケットメイキングにはこの柔軟性がない——たとえ99%の時間で良好に機能しても、1%の時間でわずかに遅れてデータに追随できなかった場合、その損失だけで残りの99%のPnLをすべて消し去る可能性がある。これが「インフラ駆動型」と「モデル駆動型」の根本的な違いである。
Corey Hoffstein:より直感的に理解するとこうでしょうか?「注文を消化する」側は、価格が自身の方向に推移し続けると予想しているため、スプレッドコストを負担してでも売買スプレッドを跨ぐ意思がある。一方「マーケットメイキング」側は、自身の取引時間枠内で価格が可能な限り安定することを望む——誰かがスプレッドを跨いで約定した後、反対側でヘッジまたは逆取引を完了し、スプレッド収益を得るためである。この区別は妥当か?つまり、一方は自身の時間枠内で市場の横ばい状態を、もう一方は方向性のある動きをより強く望むということか。
Jeff Yan:はい、基本的にその理解で正しいです。高頻度取引では通常、極めて短い時間枠でマークアウト(事後収益)を評価しますが、この判断はより一般的な取引頻度でも同様に成立します:注文を「受け入れる」ことを選択した時点で、中間価格で計測されるその瞬間に、確定損失(スプレッドと手数料)を即座に負担することになる。その後、設定した予測時間枠内で価格の平均的な動きがこの即時損失をカバーし、さらに手数料を補填できる場合にのみ、戦略は正の期待値を持つ。
マーケットメイキングは正反対だ:約定の瞬間、あなたの「初期PnL」は通常、その取引で達成可能な最高水準にあります——なぜならあなたはスプレッドを獲得したばかりだからです。あなたが賭けているのは、この利益が平均的に見て「劣化した選択」によって完全に浸食されないことです。
したがって、マーケットメイキングのシナリオでは、全ての取引を時間軸でマークアウトして観察すると、PnLが時間とともに減少するパターンがより一般的です。あなたの期待は、その減少幅がマイナスに転じないことだけです。
Corey Hoffstein:通話前に、ビジネス規模を拡大する上で最も難しい部分は研究ではなくインフラだとおっしゃっていましたね。Xでも「データ正規化ができるからといって利益が出るとは限らないが、できないと確実に儲からない」という同様の発言を拝見しました。インフラ面での最大の教訓と、それがなぜ重要なのかについてお聞かせいただけますか?
Jeff Yan:この質問は大きく二つに分けられ、両者は密接に関連しています。一つは「取引インフラ」、もう一つは「研究インフラ」です。データクリーニングは後者に近く、統計実践の一部です。前者は狭義のハイフリークエンシー取引システムです。どちらも極めて重要です。
研究レベルの方がより認知されていますが、強調すべきは:ハイフリークエンシー取引における「信号対雑音比」とノイズの形態は、学術研究の多くの対象よりも数桁悪いということです。したがって異常値の処理がはるかに重要である。
これらの問題に対する適切な処理フレームワークが欠如し、単に異常値を無視した場合、ブラック・スワン的なテールイベントが発生するとモデルが即座に破綻する可能性がある。一方で正規化やフィルタリングが不十分だと、極端なサンプルがモデル訓練とパラメータ選択を支配してしまう。具体的な実践では、多くのタスクにおいて分位数を使用する方が、直接元の数値を使用するよりも頑健であることが多い。たとえ元の数値を使用する場合でも、「異常値を捨てる」か「異常値をトリミングする」かの明確な選択が必要であり、これらの選択は最終的な結果に非常に大きな影響を与えることが多い。
最大の教訓は極めて単純に聞こえる:自らデータを精査しなければならない。自分が十分に賢く、パイプラインが十分に「クリーン」だからといって、モデル入力が自動的に期待通りに機能するとは考えないこと。生データを確認する時間を「過剰」と見なすことは難しい——なぜなら、精査のたびに新たな発見がほぼ必ず得られるからだ。チームは初期段階で取引所が提供する全生データストリームを完全に保存し、逐次照合し、積極的に異常を識別し、一貫性検証を実施すべきである。
ある取引所では、相場データ配信に不具合が発生し、「価格」と「数量」のフィールドが入れ替わるという、荒唐無稽ながら実際に起きた事例がある。例えばビットコインの20,000 / 0.1が0.1 / 20,000と記録され、当社の内部統計・集計ロジックが全面的に歪みました。多くのチームが緊急停止や代替データソースへの切り替えを余儀なくされました。この事例が示すのは、ロジック設計がどれほど「堅牢」であっても、全ての異常事態を網羅することは不可能であり、可能な限り生データへの近接性と追跡可能性を維持すべきだということです。
さらにタイムスタンプへの高度な注意が不可欠です。取引所はデータに複数のタイムスタンプを提供することが多く、その真の意味を自ら分解・整合する必要があります。これは「ブラックボックス遅延」を理解する上で特に重要——」を理解する上で特に重要である——あなたは一体何を測定しているのか?市場に確実に「追従」しているのか、それとも相手が低品質なデータをプッシュしているのか?タイムスタンプの分解と照合により、これらの状況を適切に区別し、リンクが健全かどうか、遅延が制御可能な範囲内にあるかどうかを判断できる。
Jeff Yan:各取引会社によるfairの定義には確かに差異があり、それぞれの取引スタイルに依存します。しかし共通点は、フェアとは本質的に「モデリング結果を『予測価格』に凝縮したもの」だということです。この抽象化は非常に価値があり、「収益性のある戦略を構築する方法」を二つの同等に困難なタスク——価格予測と注文執行——に分解するからです。
これは、以前のお尋ねのマーケットメイキングと注文執行に関する質問にも通じるものです:マーケットメイキングは執行側に、注文執行はモデリング側に偏る傾向があります。注文執行戦略においては、研究と意思決定のほぼ全てが「公正価格」を中心に展開されます。公正価格に組み込むべき情報は、自らがどのデータ処理段階で優位性を持つと考えているか、そして市場の効率性のギャップが具体的にどこにあるかによって決まります。
さらに、公正価格は必ずしも単一である必要はありません。機械学習寄りの枠組みでは、異なる予測期間(例:1秒予測と1日予測)の公正価格を同時に維持できます。執行戦略はそれらを異なる方法で活用し、対応する最適化目標もPnLの次元でそれぞれ異なる可能性があります。
初心者にとって比較的有効な「大まかな切り分け法」は、まず自身が価格提示やスプレッド越えを許容できる単一の数値を提示し、それを「オラクル」と見なすことである。その後、過去の価格系列を前提として、その数値を中心に最適執行を実現する方法をさらに検討する。
Corey Hoffstein:これを簡略化して理解できるか:ある取引所を観察し、仮にBinanceがほぼ全ての流動性を集約しているとすれば、Binanceの価格を公正価格と見なせる。他の取引所(例:OKX)がミリ秒から秒単位で遅延する場合、Binanceの公正価格を基準にスプレッドを跨いで取引し、価格が追いつくのを待つ。もちろん、単一取引所を「真値」とせず、注文帳関連のシグナルを組み合わせて公正価格を推定する、より統計的なアプローチも存在する。この解釈は成立するか?私自身も完全には確信していない。
Jeff Yan:その通り、考え方は正しい。流動性が最も高い取引所を公正価格(fair)とすることは、確かに優れた第一近似である。初期には取引所間で10%規模の価格差が頻繁に発生し、当時の主な課題は価格予測ではなく、取引所間で効率的に資金を移動させる方法にあった。したがってこの手法は当時非常に有効だった。近年、市場は進化を遂げた:流動性はまず分散し、その後再び集中してバイナンスに集約された(特に最近)。したがって、ご指摘の通り、バイナンス価格を公正価格と見なすことは合理的な出発点である。
ただし、外部単一ソースを直接公正価格と同一視するには依然として慎重さが必要です。例えばOKXの遅延はわずか数ミリ秒である可能性があり、実際の取引は説明されているほど直接的ではない場合があります。さらに一歩進めて、バイナンス価格が変動した際にOKXでまだ注文が成立していない機会があると仮定し、それに基づいて追随取引を行い、ポジションを決済してアービトラージを試みる― ― 多くのケースでは有効かもしれないが、これは結局のところ暗号市場であり、非連続性のリスクが存在する。例えばOKXが突然ウォレットメンテナンスに入り、バイナンスとOKX間の入出金が一時的に遮断され、裁定取引の連鎖が閉じられなくなり、価格が乖離する可能性がある。この時、公正価値をバイナンス価格のみに依存していると、逆に受動的なリスクに晒される恐れがある。
したがって、考慮すべき細部は非常に多い。この一見直感的な枠組みにおいても、「特定のデータソースから数値を取得して公正価格とする」という単純な話ではない——それはあくまで良好な第一近似に過ぎない。
Corey Hoffstein:これはまさに次に聞きたい点につながります。暗号取引所の技術的特性と「落とし穴」についてです。過去の経験から見て、それらの技術的評判は安定していません:あなたは以前「汚れたデータ」の例(例えば価格と数量フィールドの入れ替え)、APIのクラッシュ、ドキュメントの質の低さ、隠されたエンドポイント、さらには非公開のパラメータの存在について言及していました。最近Xで例を挙げたのも覚えています:リスク管理エンジンを迂回したり、並列実行させたりする――こうした完全にドキュメント化されていない細部が、価格予測とは無関係で独立した「直交アルファ」を形成しています。私の疑問は:APIの詳細な理解やエンドポイント遅延の正確な測定といった作業が、果たしてどれほどのアルファを生み出すのか?それと比較して、より「伝統的」な統計的アルファ(例:注文帳のシグナルから圧力と方向を判断する手法)と比べて、どちらが重要なのでしょうか?
Jeff Yan:あなたが言及したあのツイート、確かに反響が大きかったと記憶しています。
Corey Hoffstein:ちなみに、今でもあれがエイプリルフールのジョークだったのか確信が持てません。
Jeff Yan:エイプリルフールは過ぎましたが、確かに冗談でした。ただし、皆さんが思っている以上に現実に近い内容でした。本当の「笑いどころ」は、実は一部が真実だったことです。ずっと続編を書きたいと思っていたので、これは良いきっかけだ——このエピソードを収録したらすぐに投稿するつもりだ。
君の直感に戻ると、判断の方向性は正しいと思う。ある企業で長く働くと、人はしばしば偏見を形成する。あるいは入社時から偏見を持っている——例えば「数学を学んだのだから、よりクールな機械学習モデルを構築し、シグナルを掘り起こし、アルファを生み出すべきだ。それが最も重要だ。なぜならそれが最も難しいからだ」といったように。この「モデルだけを作る」という考え方は、分業が十分に細分化されている大企業では通用するかもしれない。しかし、業務全体を自ら運営する必要がある場合、これだけでは遠くまで進めない。
あなたが言及した「面倒で手間のかかる作業」——APIを徹底的に理解し、ドキュメントの不足を補い、各エンドポイントの遅延を測定すること ―は非常に重要だ。私がハイフリークエンシー取引(そして多くの事象)について理解しているのは、それは単純な加算ではなく、複数の要素の乗算に近いということだ。異なる「バケツ」への投入は加算的に見えるが、成果は乗算的に現れる。具体例を挙げると:
もし「インフラ」という要素が1で「モデリング」が10の場合、1単位の労力を投入するたびに、合理的な選択は常に最も弱い部分を優先的に補強することである。高頻度取引の難点は、これらの要素がそれぞれどのレベルにあるかを正確に判断することが難しい点にある。したがって、実践では継続的な「メタ分析」が必要となる——今行っていることは、本当に最も重要な事項なのか?すぐに気づくでしょう:答えは明らかではないと。多くの競争優位性は、まさに優先順位を判断する能力にこそ表れているのです。
チーム規模が小さく、既存戦略が依然有効で、市場機会が豊富である時こそ、繰り返し自問し正直に向き合う必要がある:今最も優先すべき推進事項は何か?表面的なデータに「誘導」されて、一時的に優先すべきでない方向を追いかけてはいけない。
Corey Hoffstein:暗号資産分野で高頻度取引を展開したい人に対して、あなたは二つの道筋を提案しました。一つはBinance(バイナンス)で直接取引を行い、アルファ創出に重点を置くこと(これは「注文執行」に近く、「注文提示によるマーケットメイキング」ではないと理解しています)。もう一つはロングテール特性を持つ取引所を選択し、そのインフラ層の「特性」を深く理解し、それに基づいて優位性を見出すことです。なぜこれらが最適な二つの道だとお考えなのか、さらに説明いただけますか?両者の方法論上の差異は何でしょうか?
Jeff Yan:これは「ベル曲線」の直観的結論に例えられます—— ― 中央に留まるべきではない。ベルカーブの横軸を異なる取引所と捉えるなら、問題が最も顕著なのは中間領域、例えば大まかに第2~第7梯隊のプラットフォームに相当する。
それらの取引量はBinanceよりはるかに小さいが、競争の激しさと「有害トラフィック」の割合はほぼ同等、あるいはトラフィックの質がさらに劣る可能性すらある。少なくともBinanceでは、小売トラフィックの割合が極めて高いことがわかっている。これは一種の「緩衝効果」をもたらす ——有害トラフィックと小売トラフィックの混合がより穏やかになる。トップクラスのHFT企業はほぼ全て、上位数社(おおむねトップ15と理解してよい)の主要取引所にフルアクセスしており、より大規模で成熟した戦略をフル稼働させて取引している。これら中堅プラットフォームでは、もはや「搾り取る」利益はほとんど見込めない。高度に拡張可能な大規模CEX戦略に挑戦したいなら、直接Binanceから始めるべきだ。汎用化できるものは可能な限り汎用化する——「中間」から始める理由はない。
あなたが指摘したもう一つの道も成立する:ベルカーブの最左端を目指す。小さく見過ごされている機会を探す——規模が小さすぎて大手プレイヤーが時間を割く価値がないか、ニッチすぎて彼らがカバーしていない領域だ。ニッチなインフラストラクチャーはまさに好例である。
取引所システムは人間によって開発・実装される。多くのDEXプロトコル設計に明らかな不備があるように、小規模な中央集権型取引所の技術実装にも明確に認識可能な欠陥が存在する可能性がある。もしあなただけがその動作メカニズムにおける「特殊性」を真に理解しているなら、それ自体が戦略的優位性へと転換し得る。インフラストラクチャーもまたアルファの重要な源泉であり、「モデル対インフラ」の境界が絶対的に明確なわけではない。
「汎用性の欠如」を懸念するかもしれません。例えば、ある小規模取引所で特定の「活用手法」を完全に理解しても、しかしBinanceでは直接的な助けにならない。私は「有効な戦略を稼働させる」ことの価値が外部から過小評価されていると思う。ほとんどのチームにとって、これが最優先目標であるべきだ。戦略の規模については、スタート段階で過度に気にする必要はない。
もちろん基本的な前提もある:プラットフォームの規模が小さすぎて取引量がほとんどない場合、研究と展開は意味をなさなくなる。しかし一定の取引規模さえあれば、通常は一定の収益を実現できる。さらに重要なのは、その戦略のシャープレシオが高く、リテール側のイベントに対して十分な頑健性を備えている場合、得られる能力と経験は、大多数の参加者にはないものとなるということだ。
具体的な戦略が直接汎用化できなくても、私の経験では:研究―運用 ― 本番」の閉ループを完全に踏破すれば、この過程で得られる知見は往々にして予想を大きく上回る。たとえその後やり直してBinanceなどの主要プラットフォームに移行しても、全体の難易度は大幅に低下する。さらに、多くの細部の差異はそのまま移行できないものの、「有効性が検証済みのもの」から共通原則を抽出し、新たな発想を継続的に生み出すようになる。こうした発想は通常、空想から生まれたものより明らかに優れている。
したがって、両方の道筋にはそれぞれ価値がある。すぐに選択が難しい場合は、まず小さなことから始めて、徐々に大きなものへと進むことができる。率直に言って、両方の道筋を試してみるのも悪くないだろう。
Corey Hoffstein:「有毒トラフィック」について言及されましたが、この概念を初めて聞く方に向けて定義していただけますか?
Jeff Yan:本質は「情報優位性を持つトラフィック」です。暗号市場の発展について、私なりの理解の枠組みがあります。私が市場に参入した時期は実は早くはなく、より初期の状態を想像するには振り返るしかありません。私が参入した段階ですら、小売資金の規模はすでに相当なもので、大規模な参加者も存在していましたが、当時の需給関係における核心的な矛盾は依然として— ―利用可能な流動性が小売側の取引需要を満たすには不十分だった。したがって、小売トラフィックは最も直接的で、かつ最も捕捉する価値のある対象だった。最も直感的な手法は、比較的一般的なマーケットメイキング戦略を構築し、注文を提示することで流動性を提供することだ。小売投資家があなたの提示注文と約定する限り、スプレッドを跨ぐことで生じる収益の大部分を保持できる。当時、このモデル自体が持続的な利益を生み出していた。これは逆に強力なシグナルとなった:当時の市場を支配するフローは、依然として主に小売部門から発生していたのである。
しかし時が経つにつれ、市場参加者はこの事実に気づき始め、大規模なマーケットメイキング戦略を展開し始めた。メイキング側の流動性が増加するにつれ、注文執行戦略の重要性が高まり、売買スプレッドは継続的に縮小しました。優良な小売取引フローを捕捉し続けるため、注文執行者が登場し、マーケットメイカー側の質の低い注文をより厳しく「選別」し、一つずつ取り除き始めました。これは市場進化において比較的よく見られる経路である。補足すると、注文食いも市場に重要な価値を提供している。「マーケットメイキング=マーケットメイカー、注文食い=相手方」という単純な二分法は正確ではなく、両者の役割は実際には相互に絡み合って存在する。私の見解では、より理想的な市場形態とは、参加者がそれぞれの方法で自由に取引できることを許容するものである。
しかしマーケットメイカーの視点では、こうした買い注文フローは戦略の難易度を著しく高める。従来は比較的容易なモデル——継続的な注文提示、約定ごとに少額のピップス差益獲得 — — が、少数の取引によって「突破」される可能性がある。例えば、約99%の小口取引で累計約1ベーシスポイントの利益を得る一方で、残りの約1%の取引で一気に10ベーシスポイントを失う(あくまでメンタルモデルであり、正確な数値ではない)。この構造では、テールリスクによる損失が通常の利益の大部分を食い尽くす可能性がある。
したがって、「有害トラフィック」とは、主にこのような情報優位性を持つ執行者(イートオーダー)に代表されるトラフィックを指します。もちろん、「有害」かどうかは運用する具体的な戦略に依存するが、多くの文脈では「個人投資家トラフィック」と「機関化/ハイレベルなトラフィック」で比較的直感的に区別できる。
Jeff Yan:暗号通貨には確かに「西部開拓時代」的な気質があります。より前向きな視点で見れば、暗号通貨は実験の場でもあり、立場と視点が特に重要になります。規制当局はしばしば一点に固執します——「彼らは我々が慎重に策定した証券法に従っていない」。一方、DeFiの支持者は、こうした証券法自体がロビー活動や人為的な判断の痕跡を帯びている可能性が高いと考えるでしょう。暗号通貨は、より自由意志主義的な実験の場を提供しているのかもしれません——いったい何が規制されるべきなのか?私も確信は持てませんが、現実はおそらく両者の間にあるのでしょう。私は規制当局者でも政策立案者でもありません。ここではあくまで哲学的な観察を共有しているに過ぎません。実務レベルに戻ると、操作や搾取を伴う戦略を重視しなければ、暗号市場での取引は非常に困難になる。
もう一つの現実は、取引所が規制を望んでいないわけではなく、多くの場合、どの取引所を誰が規制すべきかが不明確だということだ——少なくとも私にとっては、この点は明確ではない。多くの法的な枠組みは国によって大きく異なり、これが問題が長期化する重要な要因の一つかもしれない。さらに、取引所を運営すること自体が非常に困難であり、彼らは同時に多くの他の事項も処理しなければならない。
より具体的な例を挙げると、スプーフィング(偽装注文/虚偽申告)は非常に一般的な行為だ。ここでは米国証券・先物法における厳密な技術的定義にこだわるつもりはない。ここで言うスプーフィングはより広義の意味を指す:注文帳とそれに続く価格推移から、しばしば巨額の注文が提示されているが、明らかに実際の約定意図がないことが明確に観察できる——むしろ約定すれば不利になる場合さえある。法的レベルでその「意図」を証明するのは難しいが、これらの注文は明らかに約定のためではなく、特定のサイドに非常に豊富な注文が存在するという偽装を作り出すためのものである。その結果:注文帳の流動性を価格動向のシグナルとみなすアルゴリズムが存在する場合、誤った判断を促され、その方向に注文を出す可能性があります。誘導が成功した後、スプーフィングアルゴリズムは、より約定されやすいメイカー注文を出すか、誘導によって露見したパッシブ注文を積極的に吸収します。
こうした事例は非常に一般的だ。より露骨な例としては、組織的な「高値売り」グループなど、様々な市場操作行為が挙げられる。
観察のため、私は過去にいくつかのグループに潜入したことがある。取引には一切参加せず、傍観者として行動した。この種の現象は規模が大きい。最近では関連行為が確かに多く取り締まられており、これは良いことだ。しかし数年前までは、誇張された出来高すら作り出せていました:ある「内部関係者」がトークンを発表すると、個人投資家が急速に流入(その組織方法は私も詳しく知りません)。内部関係者はこの流れを利用して売却を完了させるのです。高頻度取引にとって、こうしたシナリオは表面上は対応可能に見えますが、実際には処理が非常に困難です。なぜなら強い平均回帰効果が、しばしば戦略を逆方向に「誘導して失敗させる」からです。
対策としては、あなたが以前指摘したインフラ・モデル・戦略のトレードオフ——つまりリソースをどこに投入すべきかという問題に戻る。私にとって、この種の問題は必ずカバーすべき「雑多な/特殊なシナリオ」に分類され、リスク管理と特殊状況対応の範疇に入る。
端的に言えば、この部分を完了しなければ、他の工程がほぼ完璧であっても、異なる市場状態や異なる銘柄において、この部分が長期的な平均PnLの成否を左右する決定的要因となり得る。
Jeff Yan:我々が最初にこの種の状況に直面した時、確かに衝撃を受けた。振り返れば、当時は幸運だったと言える:当初取引した銘柄は操作されにくいものか、あるいは相手が手を出す前に取引を終えていた。この問題を全く予見できず、「無知」の状態でシステムを構築したため、Pnlは一時順調に進んだ。しかし一度被害に遭うと、その衝撃は極めて激しい——戦略に制約を設けない場合、1分間で1日分のPnLを失う可能性すらある。自動取引は時に最も「愚かな」取引となる。なぜなら本質的に、人間の裁量を欠いた有限状態機械に過ぎず、設定された経路に沿って実行するだけだからだ。私たちの対応は極めて現実的だった:もちろん、座って詳細に分析し、モデル化して操作の有無を予測することも可能だ。しかし当時の私たちの強みは、反応が極めて速く、データに基づいて行動し、「最も規範的な」経路に固執しないことだった。私たちの手法は——特定の損失パターンが発生したら、関連するロジックを即座に停止することだった。
Jeff Yan:こうしたルールは通常1時間以内に記述を完了し、直接本番環境にデプロイできました。当時は厳格に80/20原則を遵守していました。確かに一部の機会を逃すことはありましたが、その代わりに時間とリソースを解放し、PnLを10倍に拡大できる重要な事項のスケールアップと推進に注力できたのです。これらの問題に継続的に拘束されることはありませんでした。約5% の潜在収益を停止によって放棄することになるが、これは本質的にトレードオフと判断——最も価値のある業務にリソースを投入するという選択である。
その後、リソースと時間がより豊富になるにつれ、この領域を徐々に深化させています:現在では関連市場の状態を予測し、発生中の行動を識別するためのより複雑なモデルを構築済みです。初期の「離散的」なオン/オフ処理方式に比べ、現在は連続的なパラメータと重みの調整を多用し、戦略に対して動的な制約と適応的な設定を行っています。
現時点で、我々はこうした操作行為の仕組みと識別可能な特徴について深い理解を得ています。ただし強調すべきは、新規参入者にとって80/20の原則が依然として最も重要な行動指針である点です。
Jeff Yan:どの取引所においても、ビットコインやイーサリアムでこうした事例が発生することは比較的稀です。なぜならそれらの流動性はより豊富だからです。これは取引所というより、むしろ資産そのものに依存する要素が強いと考えます。ほぼ全ての取引所で(操作/誘導)行為を目にしてきました;プラットフォームによって手法は異なり、参加者が完全に同一ではないと感じられるが、基本的な手口は概ね共通している。
ここには「スイートスポット」が存在する:あるトークンの取引量が極めて少ない場合、通常は手を出す価値がない;しかし、一定の取引規模を持つ一部のアルトコイン資産は異なる——アルゴリズムはそれらに一定の取引量と流動性を予測するため、「誘導可能な」余地が生じ、操作者が利益を得られる可能性がある。
Corey Hoffstein:市場観察の方法は、我々の取引サイクルに制約されることが多いと常々考えています。高頻度トレーダーであるあなたのミクロ構造に対する直感は、私のような保有期間が長くファンダメンタルズ重視の者とは大きく異なるでしょう。あなたは市場を粘性流体に例え、外部ショックが価格発見プロセスにおいて減衰振動として現れるとツイートしていました。この比喩は非常に興味深いのですが、さらに詳しく説明していただけますか?
Jeff Yan:私も事物の本質を理解することを重視しています。これはおそらく私の数学と物理のバックグラウンドに関係しているでしょう——その内部メカニズムを理解できなければ、「ブラックボックス」システム上でイノベーションを起こすことは難しいからです。そのため、市場がどのように機能するかを理解する助けとなる、いくつかの心のアナロジーや比喩を構築する傾向があります。
「粘性流体」モデルを例に挙げると、より根本的な問いに立ち返ることができます:なぜ高頻度取引は利益を生むのか?多くの個人投資家はこれを「略奪」と見なし、例えば我々が「先回り取引」や「損切り狩り」を行っていると考えるのです。私は高頻度取引が「善行」だと主張するつもりはありませんが、市場に一定程度必要なサービスを提供していると考えます。
価格に影響を与える外部要因を、システムに与えられる「ショック」(我々にとっては主にランダムな性質を持つ)として抽象化できます。例えば:あるいはニュースイベントが資産の「公正価値」を変える場合などだ。イベントそのものを解釈しようとする者もいるが、こうした需要は突発的で、通常「約定後即退出」となる。オーダーブックは本質的に強力なPvP(参加者同士の駆け引き)の場であり、多くの参加者が明確な執行緊急性を持って参入する。そしてフィードバックループが形成される:モメンタム取引がさらなる取引を誘発し、様々な不安定な均衡を生み出すのだ。この構造下では、価格はまず最大幅の初期ショックを経験し、その後市場参加者が徐々に「参入」して真の公正価値(fair)を巡る駆け引きを展開する。最初の価格変動幅が通常最大であり、その後「オーバーシュートが発生した」と判断する者が現れ、それに基づいて平均回帰取引が行われる — — 中頻度参加者からでも高頻度参加者からでも発生し得る。例えば「今後5秒で平均値まで価格が戻ると」考える場合だ。同時に、イベントの影響が深遠だと判断し、価格を押し上げてさらなる上昇を継続させる者も現れる。例えば「イーロンがドージコインをTwitterに組み込む」といった事象は、その物語構造において「真の影響力を持つ」と見なされ、逆に平均回帰派のポジションを打ち破る可能性がある。
全体として、これは実質的な資金を伴う「価格投票」と継続的な駆け引きに近い。その核心的特徴は、変動幅が次第に収束することにある。参加者が目標ポジションを構築するにつれ、資金は加重平均を完了し続け、価格は最終的により安定した適正価格帯に収束する。
この過程において、高頻度取引の中核機能は依然として「安値で買い高値で売る」という流動性提供にある。価格経路を上下に変動する曲線と見なすならば、高頻度取引は曲線が低い位置にある時に買い、高値時に売却することで、その取引インパクトは平均的に見て曲線を平滑化する効果をもたらす——価格がより迅速に適正価格に接近し、価格形成過程において可能な限り適正価格を中心に推移するよう促すのである。
したがって、この比喩的枠組みにおいて、高頻度取引能力が強く市場の流動性が豊富であればあるほど、この「流体」はより高い粘性(より強い減衰)を示す。このメンタルモデルは厳密ではないかもしれないが、おおむね私のツイートが意図した意味である。
Jeff Yan:これは我々の内部における「探索的なアイデア」です。以前も述べたように、実証済みの有効な方向性に基づく反復は、ほぼ常に最適解となります:命中率が高く、スケール化も容易です。しかし我々は、より大胆な少数の探索にも余地を残しており、時折それらが確かに成果を生むこともあります。今回の取り組みは比較的成功した「興味プロジェクト」であり、立ち上げ当初は強い先験的判断はありませんでした。
主な動機は以下の通りです:当社の利用可能資本規模は、高頻度戦略が効果的に扱える容量を超えています。複数の取引所を接続済みですが、これは定数項レベルの拡張に過ぎず、限界効用は持続的に減少しています——後続で接続するプラットフォームの規模が次第に小さくなるためです。そこで私たちは考え始めました:中頻領域へ触手を伸ばせないか——理想的には、シャープレシオ3~4で、容量がハイフリークエンシー戦略の数百倍に達する「理想的な資産」となる。この構想は非常に魅力的に聞こえる。
ただし、我々は全体として効率的市場仮説の基本枠組みを認めている。確かに我々は高頻度取引で優位性を持つが、日次データセットを与えられて日次収益を予測するよう求められた場合、信頼できる直接的な切り口を見つけるのは困難だ。この慎重な姿勢を踏まえ、この「発想」は比較的実現可能な道筋を示してくれた:中頻度取引において、他者にとって価値があるが他者が入手できないデータソースを獲得できれば、それ自体が戦略的優位性となり得る。我々は一部の機関のように衛星画像や駐車場の車両流量統計といった「代替データ」を入手することは不可能だ。では、我々が真に所有しているものは何か?我々が持つのは自社のHFT損益(PnL)である——これは非公開データであり、明らかにランダムノイズではなく、時系列パターンから構造的特徴が読み取れるため、さらなる研究に値する。
さらに問いかけよう、それはどの要素と関連しているのか?先の「有害トラフィックと小売トラフィック」の議論に戻れば、それは小売トラフィックと高い相関性を持つ。比較的単純な先験的仮説として:市場参加者のタイプを区別し、その行動パターンを理解できれば、多くの場合優れたシグナルを得られる。全体的な先験的仮説は依然として「大半のシグナルは安定した予測性を欠く」が、方向性が必ずしも明確とは限らない。したがって我々の考え方はこうだ:この指標を保有しており、それが小売フローと相関し、小売フローが確率論的に価格形成と関連しているなら ―ならばこの経路を徹底的に掘り下げ、厳密な分析検証を行うべきだ。
Jeff Yan:我々はこの分析を実際に行った。全体的な考え方は、P&Lを中核とする特徴量(P&Lの変化量、P&Lの「導関数」など)を回帰フレームワークに組み込み、中頻度スケールにおける異なる時間窓での価格パフォーマンスを予測する。当初は中頻度研究の実践方法が不確かだったため、比較的「広範なカバレッジ」のアプローチを採用した:まず5分間の収益から着手し、時間スケールを数時間単位へ段階的に拡大した。
Jeff Yan:研究は主に当社内部のダッシュボードデータ体系に依拠しています。この体系は異なる取引所・異なる銘柄における各戦略のP&Lを集計可能で、取引所/戦略/銘柄などの次元でセグメント化をサポートします。データノイズが大きいため、堅牢な処理が必要です。当然ながら、単一通貨のP&Lを直接その通貨の中期トレンド回帰に用いることはしません——ノイズが過剰で説明可能性も限定的だからです。我々は基本的に80/20原則に従い、バケット化やグループ化などの手法を通じて、明らかな過学習を可能な限り回避し、既存の事前知識に従う前提で、非常に興味深く、直感に反する結論を得た:
マーケットメイキングでも注文執行でも、高頻度取引側のPnLは暗号資産のその後のリターンと有意な負の相関を示し、その効果の強さも弱くない。実取引でこの効果を捕捉しようとした際、我々は一時非常に興奮した:1~2時間の予測ウィンドウ内で、この効果の規模は数十ベーシスポイントに達し、かつ容量も高い。
しかし問題は:このシグナルはほぼ空売りを示唆するのみで、対称的な逆効果(理論上は存在する可能性もあるが、我々の戦略反復では長期的な継続的損失状態を回避する)が欠如している。言い換えれば、我々が利益を上げている時、モデルが示す意味合いはむしろ「空売りすべき」に近い。
Jeff Yan:では、具体的に何を空売りするのか?直感的には永久先物や先物を空売りすべきだろう。しかし、実際に運用する際には、二つの現実的な制約に直面する。
第一に資金調達コストである。こうした状況では、多くの経験豊富な参加者も空売りを行っている。個々の注目する基礎シグナルが異なっても、アルファ間には高い相関が生じ、市場行動は同調する傾向にある。資金レートはこの過密状態を反映し吸収する。
第二に、シグナルが最も「顕著に有効」な個別銘柄は往々にして極端なサンプルに属し、これらの銘柄は実際の運用においてむしろ空売りしにくい。その理由としては、流動性の不足、貸出可能な証券の制限、契約ツールの不備などが考えられる。
それにもかかわらず、全体的な効果は依然として有用である。ハイフリークエンシー取引は本質的に在庫を生成するため、戦略間で内部ヘッジや内部化が可能である。内部化を採用しない場合でも、シグナルが最も強い時に在庫対象にバイアスをかける(例えばポジションを最小化または回避する)ことで、全体の損益にプラスの貢献をもたらすことができる。
「単独で再利用可能な中頻度ショート戦略を抽象化すること」については、説得力が不足すると判断したため、独立した戦略としてパッケージ化していません。これは公開可能なアルファに最も近いカテゴリーに属しますが、実際に実行可能かどうかは、戦略ポートフォリオと取引フロー設計に依存します。特定のシステム下では、確実に実行可能なアルファへと変換される可能性があります。
Corey Hoffstein:この考え方は非常に興味深い。先物で直接空売りするのは資金コストがシグナルを部分的に価格化している可能性があり必ずしも有効ではないが、在庫バイアスを調整してこのアルファを捕捉する代替ルートは、P&Lに実質的な影響を与え得る。
これは私の所属するバンドでの手法を想起させます——DFAを例にとると、彼らは明示的にモメンタムを取引せず、バリュー株を購入する際にはモメンタムが著しく弱い銘柄を除外します:モメンタムを直接的な要因としてポジション構築するのではなく、全く異なる時間軸で、負のモメンタム段階が収束するのを待ってからバリューに参入するのです。これはここでの論理と近似しています:理論上「直交」アルファを明示的なポジションとして表現せず、取引プロセスに組み込み、限界優位性と微細な改善を通じて結果を持続的に向上させる。この概念は非常に示唆に富む。
Jeff Yan:補足します。先ほどの例は興味深く、私はこれまで接したことはありませんが、大口ポジション取引を主とする「人間トレーダー」が類似の手法について言及しているのを確かに耳にしたことがあります:暗号市場において、50日移動平均線と特定の移動平均線が「ゴールデンクロス/デッドクロス」を形成すると、彼らは対応するアクションをトリガーします。その意味は:彼らの核心的な意思決定はテクニカル分析に依存しておらず、特定の技術的条件が発生した際にそれを実行トリガーと見なすということです。あなたが挙げた事例を専門的に研究したわけではありませんが、それは類似の手法——自ら相対的に信頼できると判断した「条件シグナル」の変化を待ち、既定の取引フローを実行する手法です。
Corey Hoffstein:はい、本質は特定の条件シグナルの変化を待つことです。興味深いですね。これまで中央集権型取引所については多く議論しましたが、オンチェーン戦略/分散型取引所についてはあまり触れていませんでした。あなたが以前お気に入りだったが現在は停止したオンチェーン戦略としてRFQを挙げていました。その内容、当時なぜ高く評価され効果的だったのか、そして後に中止した理由について説明いただけますか?
Jeff Yan:約半年前、私たちはDeFi分野への投資を強化し始めました。当時業界では、最良の機会がオンチェーンへ移行しつつあり、中央集権型取引所は限界効用逓減期(全体的な取引活性度が低い状態)に入っていると広く認識されていました。そのため、より多くの時間をDeFi研究に割くことを決断したのです。その時期、RFQ(Request for Quote、見積依頼/提示)がブームとなりました。CrocSwapのDouglasも最近興味深いツイートをいくつか投稿していますが、私は彼の意見にほぼ同意します:この設計は理想的ではない——伝統金融(TradFi)で有効なメカニズムをそのままDeFiに移植しようとしているが、必ずしもオンチェーン環境に適しているわけではない。
背景知識のない聴衆のために補足すると、RFQの出発点は比較的明確である—— ― マーケットメイカーが「有害なトラフィック」をフィルタリングし、小売ユーザーがマーケットメイカーと直接取引できるようにすること。小売ユーザーがリクエストを発行:「私は小売ユーザーです、オファーをください」。マーケットメイカーがオファーを返す(通常はスプレッドより優遇、または少なくとも小売ユーザーが希望するより大きな取引規模に対応可能)。。小売ユーザーはマーケットメイカーの署名付きオファーを受け取ると、その署名付きペイロードをスマートコントラクトにブロードキャストします。コントラクトが署名の有効性を検証した後、双方の資産決済が完了します。その本質は「プロトコル化されたOTC」メカニズムに近いものです。
この構想は確かに合理的に聞こえ、伝統的金融(TradFi)でも比較的よく見られます:ユーザーはより大規模で、高頻度取引による「フロントランニング」を受けにくい取引を実現でき、小売ユーザーにとっては優れたサービスと言える。しかしDeFiの文脈では、これは明らかな設計上の欠陥である。なぜなら相手方が真の「個人投資家」であることを証明できないからだ—— — チェーン上ではデフォルトで匿名であり、KYCによる本人確認が存在しないためです。
この判断を検証するため、私たちは極小のPythonスクリプトを作成し、一括で価格照会リクエストを送信しました。結果、マーケットメイカーは確かに極めて有利な価格提示を行いました:スプレッドは約5ベーシスポイントのみ、かつ提示有効期間は60~90秒でした。多くの場合、マーケットメイカーの視点から見れば、このような取引を獲得することは本来魅力的であるはずであり、彼らが提示する取引規模も相当なものでした(10万ドルレベル)。しかしこれは同時にメカニズムの欠陥を露呈している:身元確認が不可能でデフォルトで匿名のシステムでは、誰でも「個人投資家」を装い、オファーメカニズムを逆手に取って優位性を得られる。これが当時我々が一時的にこのオンチェーンRFQ戦略を高く評価しながらも、すぐに使用を中止した根本的な理由である。
Jeff Yan:私たちの操作方法は実にシンプルです:まず価格変動を待ちます。暗号資産市場は元々変動が激しいため、価格が変化した時点で、既に署名済みの取引をブロックチェーン上にブロードキャストします。相手方が取れる手段は限られていた。この戦略のシャープ率は非常に高かった。さらに言えば、価格変動を待たずとも発動可能だった——本質的には「無料オプション」に近く、明確な時間価値を有していた:オファーが期限切れ間近になるまで待機し、その時点で取引を成立させるか否かを判断できたのだ。
Jeff Yan:これにより収益もより安定します。当時私たちはこの方法で実行しました。明らかに、私たちだけがそうしていたわけではありません(あるいはその一員だったかもしれません)。マーケットメイカーはすぐに反応しました:「君たちは我々に損失を出させている。明らかに個人投資家ではない」という理由で、通常のオファー提供を停止し始めました。その結果、極端に広いスプレッドを提示するか、あるいはオファー自体を停止するようになりました。これに対しても我々は対応策を持っています。例えばアドレスやウォレットを変更してリクエストを継続するといった方法です。
現在多くのRFQメカニズムが導入しているのは、最終決定権を「個人投資家」に委ねるのではなく、マーケットメイカーに「ラストルック(最終確認権)」を与える仕組みだと理解しています。ご指摘の通り、我々も後にこの種の戦略を中止しました。確かにこれは進化だと考えますが、マーケットメイカーにラストルックを付与すれば、RFQの中核的優位性はほぼ弱体化、あるいは消滅するでしょう。この点はTwitter上の関連議論からも見て取れます:メカニズムレベルで中央限価簿(CLOB)を上回ることは非常に困難であり、RFQがDeFiにおいてこれを安定的に実現できるとは考えていません。上記の経験はさらに、私たちが試行錯誤を重ねる中で、この分野が依然として未成熟であり、多くのプロトコルのメカニズム設計が十分に練られていないことを痛感させました。
こうした背景のもと、私たちは当時ある戦略的判断を下した:既存の仕組みに「アービトラージ的な適応」を図るよりも、むしろ我々自身が、真に小売ユーザー向けで分散型価格発見を実現できるプラットフォームを構築すべきだと判断した。
Jeff Yan:自ら参入を決断した理由は、DeFi取引プロセスにおいて強い疑問を抱いたからです。2022年半ばのDeFi低迷期においても、小売トラフィックは依然として顕著でしたが、ユーザーは極めて劣悪なユーザー体験を提供するプロトコルを利用していました。基盤となるパブリックチェーンの性能が不十分な状況下で高額なガス代を支払いながら、さらにメカニズム設計が理想的とは言えないソリューション(例:RFQ)を使用していたのです。さらに驚くべきは、ユーザーが実際に使い続けていたことだ。データからも明確に確認できた——需要は常に存在していた。この判断に基づき、我々はさらに深く調査を進めた。
FTX事件がこのタイムラインのどこに位置するかは正確に覚えていないが、おそらく破綻直前の時期だった。FTX崩壊後、市場の議論は急速にカウンターパーティリスクへと移行した:「鍵が自分のものでなければ、コインも自分のものではない」といった、かつてはスローガンに過ぎなかった表現が、突然、大多数の人々の最大の関心事となった。これは「何らかのインフラを構築すべきだ」という私たちの信念をさらに強固なものにした。しかし具体的に何を構築すべきかについては、私たちは繰り返し検討を重ねた。まず、ユーザーの真のニーズと、市場でまだ満たされていない空白を明らかにする必要があった。
当時市場には既に多数のSwapクローンが存在し、様々な小規模なイノベーションやアグリゲーターが次々と登場し、異なるカーブや公式が膨大なパラメータ空間を生み出していた。しかし我々はAMM路線に楽観的ではなかった:いわゆる「マーケットメイキング」によって形成される流動性のかなりの部分は、誤った、あるいは誤解を招くようなナラティブによって駆動された低品質な流動性(例えば「無常損失」の表現方法や、流動性マイニングの残存効果など)であった。。仮にAMMが市場の主要ニーズを確かに代表しているとしても、この分野はすでに高度に混雑しており、我々が同種の製品をもう一つリリースしても、提供できる付加価値は明確ではありません。
そこで我々は中心化取引所に戻って観察しました:ユーザーが真に必要としているものは何か?価格発見は主にどこで発生しているのか?有効な流動性はどこに集中しているのか?答えは極めて一致している——永久先物である。永久先物そのものが極めて巧妙なイノベーションであり(その思想は伝統的市場に遡るが、暗号市場で完全に発展した)、分散型領域において、真に分散型方式でこの機能を提供するプロジェクトはほとんど存在しない。dYdXはオーダーブック形式を採用しているものの、マッチングは依然として中央集権的傾向が強い。これは最も近いソリューションではあるが、それ以上のものではない。我々の結論はこうだ:明確なギャップがあるなら、我々が埋めるべきだと。
トレーダー向けの価値提案も明快だ:BinanceやBybitのような中央集権型取引体験を認めつつ、カストディリスクを負いたくない場合——Hyperliquidが提供しようとしているのはまさにこの選択肢である。
Hyperliquidは最近クローズドベータテストを開始し、中央集権型取引所(CEX)と(CEX)と同等の取引体験を提供することを目指しています:スプレッドは十分に狭く、約定確認はほぼ即時、Gasコストはほぼゼロ(DoS防御のみに使用)。混雑がない状態では、そのブロックチェーンは毎秒数万件の注文を処理できます。すべての行動は完全に透明で、すべてがブロックチェーン上に記録され、すべての操作はオンチェーン取引記録として提示されます — — これが我々の追求するビジョンである。
我々の第一のターゲットユーザーはDeFiコミュニティである。より広範な層に「管理機関を介さず、信頼をオンチェーン契約に委ねられる」という概念を浸透させる教育コストは高く、また我々の専門分野でもない。一方DeFiユーザーは今日からでも利用可能だ。我々がすべきことは、彼らに証明することだ:数あるプロトコルの大半は真剣さに欠け、その多くは一時的な対処法/応急処置的な解決策、あるいはローカル価格に基づく暫定的な仕組みに過ぎない——ギャンブラーには適していても、真の流動性と信頼できる価格発見を必要とする真剣なトレーダーには不向きだ。我々が提供するのは、実用的な流動性と分散型の価格発見メカニズムである。
ブロックチェーンとスマートコントラクト自体は、カストディと決済機能を担い、メカニズムレベルで検証可能な信頼を構築できます。しかしこの概念の普及は容易ではなく、私たちの得意分野でもありません。私たちの戦略はより直接的です:製品と事実で差異を示し、ユーザーに複雑なプロトコル選択の中で、大半のソリューションが厳密ではなく、多くのものが短期的なパッチ(一部はローカル価格のみに基づくものさえある)であることを認識させることです。こうした仕組みは「デゲン型」の参加には適しているかもしれないが、安定した取引体験と真の流動性を求めるプロのトレーダーには向かない。
Hyperliquid の特徴は、設計段階から上記のニーズを軸に構築されている点です。このため技術面で数多くの革新を行い、四半期の大半を集中開発に費やしました。当初は dYdX のアプローチ(オフチェーンマッチング・オンチェーン非管理決済)にも魅力を感じていましたが、詳細な検討を重ねた結果、このモデルには構造的な欠陥があると判断しました。 — システムの分散化レベルは、その中で最も中央集権的な部分によって決まる。この判断に基づき、我々は当該ソリューションを受け入れることができませんでした。なぜなら、我々が想定する規模とビジョンに拡張することが困難だったからです。
したがって、我々は原点に立ち返りました:完全な分散化を実現しなければならない。我々の制約条件下では、これはほぼ選択肢がないことを意味する——独自にパブリックチェーンを開発するしかない。我々は迂回も既存結論への盲従も好まない。外部では独自L1構築の難易度が極めて高いと広く認識されているが、我々の対応はまずコンセンサス問題を集中的に解決することだ。Tendermintは完璧ではないが、成熟度が高く数多くの実戦テストを経ています。私たちはこれを基盤として構築を進め、現在の段階に至りました。
Jeff Yan:過去数年間、L1は業界における重要なテーマとなり、SolanaやAvalancheといったいわゆるL1プロジェクトを中心に多額の投資が集まってきた。概念自体は複雑ではない:L1とはブロックチェーン本体を指す。これに対比されるのが「スマートコントラクトベースの実装アプローチ」——既存のL1(イーサリアムやSolanaなど)の上にスマートコントラクトで取引所のロジックを実現し、そのL1が実行と決済を担当するものです。
これが重要なのは、そこには微妙なインセンティブ構造が存在するからです。多くのチームが「特定のL1上に構築する」ことを望むのは、その理由の一部は、大量のトークンを保有するVC/ファンドからの支援やプロモーションリソースを得やすいためである。一方、汎用スマートコントラクトL1の価値はアプリケーションエコシステムに依存しているため、開発者を「私を基盤にコントラクトを展開する」よう自然に惹きつける傾向がある。これに対し、Tendermintを基盤とするCosmos系チェーンは自己主権(self-sovereign)モデルに近く——その拡大を促す強力な外部インセンティブが欠如しており、価値も特定の単一主体に直接還元されることはない。
より具体的な例を挙げよう:取引所を完全に「スマートコントラクト」として実装する場合、基盤となる契約プラットフォームのルールに強く制約される。イーサリアムを例にとると、取引と状態更新は通常ユーザー取引によってトリガーされる。したがって、永久先物取引所における最も基本的な運用動作の一つ—— ―例えば8時間ごとの資金手数料決済――において、システム内に10万の「セッション/ポジション」が存在する場合、更新が必要なストレージスロットの数は単一ブロック内で到底収容できない。結果として「誰が資金手数料決済をトリガーするか」という追加メカニズムを設計せざるを得なくなる:トリガー権限のオークション実施、インセンティブと手数料分配の設計、トリガー者へのGasコスト補助などが必要となる。さらに重要なのは、このプロセスは通常アトミックに完了できず、最終的な実効は「約8時間ごとの決済」となるものの、具体的な実行タイミングは当時の参加者アクティビティに依存し、数分遅延する可能性がある点だ。戦略的トレーダーにとって、このような不確実性を前提に安定した執行・リスク管理フレームワークを構築することは困難である。
このような操作は、すべての永久先物取引所にとって「基本動作」に属します。自社開発のブロックチェーン上で実装する場合、資金手数料の決済ロジックをコンセンサスプロトコルに組み込むことで大幅に簡素化できます。例えば、新規ブロックが生成され、そのタイムスタンプが創世ブロックからの8時間ごとの整数倍に該当する場合、システムが自動的に資金手数料の決済をトリガーし、対応するロジックを実行するように規定すれば、全体的な実装はより直接的で制御しやすくなります。言い換えれば、永久先物取引所を運営することは、技術的な本質において、単にいくつかのスマートコントラクトを記述するだけでなく、L1を構築することに近いです。
Jeff Yan:レート階層化は確かに象徴的です。多くのAMMが徐々にオーダーブック型へ「進化」しているのが見られます。多くのDeFi関係者にとって、これはどうしても挫折感をもたらします— — 結局は車輪の再発明をしているかのようです。その過程で局所的な革新は生まれるかもしれませんが、より根本的な構造から見ると、流動性プールモデルには「巧妙さ」がある一方で、ある種の「過剰包装」された側面も感じられます。
その理由は、AMMが当時の計算能力とストレージの制約から大きく影響を受けているためだ。2018年(Uniswapが登場したばかりの時期)に遡ると、チェーン上で処理可能な算術演算は非常に限られており、1回のトランザクションで更新できるストレージ状態はごくわずかだった。ユーザーも過大なガス代を許容できなかった。AMMはまさに、こうした計算能力とストレージが高度に制限された環境下で、「かろうじて使える」ための妥協案として形成されたのである。
その稼働は、ある意味で資金をプールに誘導し流動性を提供させる説得に依存している。同時に、無常損失をマーケティングストーリーとして包装する手法は、非常に巧妙であると同時に疑問の余地があると考えられる:個人ユーザーに対して「預け入れることは取引ではなく収益獲得である」と強調し、損失が発生する可能性があっても「一時的」で無視できるコストと説明している。この物語がリスクを十分に開示しているかどうかは、少なくとも議論の余地がある。
トレーダーの視点から見ると、AMMプールのアービトラージ機会はメカニズム上比較的顕在化している:これらのプールを軸にアービトラージを行うことで収益が得られる。現在ではこの種の取引はかなり混雑しているが、初期段階では確かに明確な正の期待値を持つ戦略であった。オーダーブック市場とは異なり、プールの流動性提供者はプロのマーケットメイカーではなく、むしろ小売LPであることが多い。多くの人々は資金をプールに投入した後、長期にわたり管理せず、いわゆる「マイニング収益」に依存して」に依存して参加を維持している。効果的な管理とリスク認識が欠如している場合、長期的な観点では期待収益が理想的でない可能性があり、不利な選択による損失を継続的に被る恐れさえある。
「流動性マイニング」は初期段階においてインセンティブで強制的に流動性を引き込んだが、インセンティブが減少した後も、一部の資金はプールに残留し続け、参加者自身が自身のエクスポージャーを継続的に監視していないケースさえ存在する。この構造自体が持続可能とは言い難い。「取引量は依然として高い」と反論する者もいるかもしれないが、あなたの論述枠組みにおいては、これはむしろインセンティブやマーケティングメカニズムに起因する可能性が高く、長期均衡下の自然な結果とは言えない。長期均衡においては、真に持続可能な流動性は徐々に低下し、LPが不利な選択をカバーするために支払う隠れたコストが、レートをより高い水準に引き上げることを余儀なくされる。しかしレートが上昇すると、リテールフローがさらに抑制され、負のフィードバックループが形成される。
そうした「実質的に許容可能な」流動性水準において、収益とリスクコストを精算すると、結果は往々にして芳しくない。これが資金プールモデルが長期的に成立しにくい根本的な理由の一つだと考える。
いわゆる「進化版」はGMX及び一連の「GMXクローン」と理解できる:これらは定数関数曲線に依存せず、代わりにオラクル価格を採用する。取引発生時のオラクル読み取り値を「真の価格」に可能な限り近づけるため、こうしたプロトコルは多くの制約と暫定的な設計を設ける。しかしそれでもなお、関連する問題は頻繁に発生する——例えば、まず中央集権型取引所で価格を操作し、操作済みのオラクル価格をGMXで取引して利益を得るといった手法だ。メカニズムの観点では、こうした手段は本質的に「一時的な対処療法」に過ぎず、価格発見や取引相手の情報優位性といった根本的問題を解決していない。
私の見解では、近年L1コンセンサスなどの基盤技術が進歩したことで、もはや「分散化」と「実用的な取引形態」の間で過度な妥協をする必要はなくなった。分散性を維持しつつ、オーダーブック型取引を実現できるのだ。経験上、これは真の価格発見を実現し「真の市場」を形成できる、ほぼ唯一十分に検証された道筋である。
Jeff Yan:これは確かに暗号資産業界全体に共通する問題であり、DeFiに限定されたものではない。中央集権型取引所でアービトラージを行う場合でも、資金の入出金プロセスは依然としてパブリックチェーン上で実行される。チェーン上の混雑が発生すると、資金移動の効率は著しく低下する。我々がスタート段階で永久先物契約に焦点を絞った選択は、本質的に80/20の優先順位付けである:市場の大部分の取引量と価格発見は永久先物に集中しています。この基盤の上で再度80/20の選択を行い、まずUSDCを統一的な証拠金として採用し、コアパスを確保します。その後、リスク分散のために複数のステーブルコインを段階的に導入することは難しくありません。大多数のユーザーにとって、このモデルはよりスムーズです:USDCをブリッジ/チェーン/契約システムに預け入れるだけで、同一プラットフォーム上で多数の暗号資産に対する見解表明と取引が可能となる。
高ボラティリティ資産の見解表明と価格発見に関しては、担保さえあればポジション構築とアービトラージが実行可能だ。典型的なシナリオは現物-永久先物アービトラージ:資金調達料を獲得し、先物と現物の価格差を取引する。この構造では、永久先物取引はHyperliquid上で完全に完結でき、現物やUSDCを頻繁に移動させる必要がない。
もちろん、クロスチェーン問題そのものは引き続き注視が必要だ。現在、注目すべきクロスチェーン技術の方向性が数多く存在している;当社は既に一部ソリューションを統合しており、関連進化を継続的にサポートします。リソースと優先度の制約から、マルチチェーンインフラの「基礎的イノベーション」には直接参画しませんが、最終目標は明確です:資産は任意のソースチェーンから調達可能であり、信頼最小化または分散型ブリッジ方式で担保として投入され、Hyperliquidの証拠金として直接利用されることです。
現在、UI、Python SDK、あるいはネイティブAPIの直接呼び出しによるHyperliquidの試用において、エンドツーエンドの遅延は概ね100~300ミリ秒の範囲にあります;ブロック生成のランダム性により、この数値は完全には確定していません。Binanceの注文遅延よりも1桁遅いと思われるかもしれません。しかし遅延の影響は手数料のように線形に加算されるわけではなく、我々が優先的にサービスを提供する中核ユーザー層——個人ユーザー — — にとって、人間が100ミリ秒と数十ミリ秒の差を安定して識別することはほぼ不可能です。
たとえ区別できたとしても、多くの場合決定的な要因にはならず、彼らが重視するのは「即時的な」操作フィードバックです。通常の市場環境下では、100ミリ秒と10ミリ秒の間で価格が実質的に変動することはありません。
ほとんどの取引シナリオにおいて、ブロック生成時間によるこの遅延はほぼゼロと見なせるため、自社開発のL1を運用することで許容範囲内に収めることが可能である。
Manta NetworkのNew Paradigmは、24時間でTVLが125%急増し4500万ドルに達し、ユニークな収益モデルによって世界的な注目と多額の投資を集めた。
KikyoiSHANGの最先端Web3ソリューションを採用したミスIMX 2023は、投票ダイナミクスに革命的な変化をもたらし、透明性とエンゲージメントを確保した。このコラボレーションは、テクノロジーと魅力のシームレスな融合を披露し、従来の投票システムを再定義し、自動車業界に永続的なインパクトを残しました。
Joyイスラムコインの親会社であるBored Gen DMCC(BG)は、トークンの合法的な発行、マーケティング、配布に関してVARAの監視下にあった。
Alexバイナンスは27億ドルを支払い、元CEOのCZは商品先物取引委員会との和解で1億5000万ドルのペナルティを受ける。
Hui Xinシンガポールを拠点とする暗号通貨取引所PayBitoは、ドバイとシンガポールのオフィスで50%の増員を視野に入れ、人員を増強する予定だ。この動きは、世界中の顧客に最先端の技術ソリューションを提供するという同社のコミットメントに沿うもので、来年には従業員を倍増させるという同社の戦略の一環である。
JoyBloXroute Labs、OFAC制裁取引のイーサリアムブロックを検閲することを決定、ブロックチェーンの倫理と規制遵守をめぐる議論を巻き起こす。
AlexRepubliKはTONと提携し、使い慣れたソーシャルメディアの側面をユーザーフレンドリーなWeb3プラットフォームに統合し、エンゲージメントと柔軟性を重視しています。
Alex2023年は、フランクリン・テンプルトンやJPモルガンのような主要企業が、この技術の効率性と成長の可能性を示したことで、金融におけるブロックチェーンの重要な年となった。
Kikyo台湾当局は、Polymarketのようなプラットフォームが関与する活動に対する法的影響と進行中の調査を理由に、暗号通貨ベッティングに対して厳重な警告を発した。
Hui Xin2003年の開始以来、世界的な人気を博したネクソンのアイコン的IP「メイプルストーリー」の延長として生まれた「メイプルストーリーM」は、2016年10月にモバイルに移行し、2018年7月に世界展開の基盤を築いた。
Brian