ビットコイン半減と米連邦準備制度理事会(FRB)の政策が暗号市場を低迷させるとBitMEX共同設立者が指摘
アーサー・ヘイズは、ビットコイン半減と米連邦準備制度理事会(FRB)の動きにより、暗号市場が低迷すると予測している。
![image Alex](https://image.coinlive.com/24x24/cryptotwits-static/3a11cdc0811cb1966908be0d48c0f13d.png)
Zハイライト
LLMは非常に柔軟で、さまざまな状況に適応できる。align: left;">LLMの魔法は、非常に柔軟で、多くの異なる文脈に適応でき、基本的な知性を持っているということです。
時間をかけて、UIとが変わっていくと考えています。UXはますます自然に言語化されていくでしょう。それはエージェントシステムが考える方法だからです。span leaf="">LLMs)のトレーニングはそれに基づいています。
もしあなたが誰かにAIエージェントを受け入れさせようとしているなら、彼らは実際にはある種のAIエージェントを受け入れています。一種の信仰の跳躍を取っているのです。非常に不慣れな分野だからだ。
AIエージェントカスタマーエクスペリエンスの再発明
カスタマーエクスペリエンスの再発明
ジェシー・チャン:実際にエージェントを構築するにはどうすればよいのでしょうか?なぜなら、大規模言語モデル(LLM)がそうだからです。学習方法です。
長期的には、実際に人間のような超知的なエージェントがいれば、物事を見せたり、説明したりすることができます。
非常に有能な人間のチームメンバーがいて、彼らが最初に参加したとき、あなたは彼らにいくつかのことを教え、彼らは仕事を始める。
最終的には、このような方向に進んでいくでしょう--。より会話的で、より自然な言語に基づいたものになり、人々が互いにコミュニケーションをとる方法はより自然なものになるでしょう。そして、人々はもはや、要件をキャプチャするために複雑な決定木を使用することはないでしょう。
以前は大きな言語モデルがなかったため、このようなことをしなければなりませんでした。しかし現在では、エージェントが進歩し続けるにつれて、ユーザー・エクスペリエンス(UX)とユーザー・インターフェース(UI)はより会話的になるでしょう。スパンみなさん、こんにちは。span text="">ポッドキャストです。デリック・ハリスです。今日の番組では、デカゴンの共同設立者兼CEOジェシー・チャンとお話しします。span>およびa16zパートナー。span>キンバリー・タンが議論に加わる。キンバリーが司会を務め、ジェシーデカゴンがを構築した経験を披露する。は、AIエージェントを提供する企業です。"">顧客がサポートする新興企業を支援する。これらのエージェントはチャットボットでも単一でもありません。span text="">API呼び出されるLM<パッケージではなく、高度にカスタマイズされた高度なエージェントは、企業固有のニーズに応じて複雑なワークフローを処理することができます。のプロセスがあります。
なぜDecagon<異なるLLMを扱うためにどのように設計されているかを説明します。text=""> ジェシーまた、会話ごとの課金というビジネスモデルの利点についても、語ってくれた。AIエージェントはどのようにカスタマーサポートのリーダーに必要なスキルを変えるのか。
また、キンバリー
も注目に値します。最近、RIPからRPAへ、インテリジェント・オートメーションの台頭というタイトルのブログ記事を書きました。」というブログ記事を書いており、このエピソードでも簡単に触れています。この記事は、自動化がビジネスプロセスでどのように普及するかを理解するための素晴らしい出発点です。最後の注意事項として、この記事の内容は情報提供のみを目的としたものであり、法律、ビジネス、税務、投資のアドバイスとみなされるべきものではなく、投資や証券の評価に使用されるべきものでもありません。span text="">ファンドの投資家または潜在的投資家。
ジェシー・チャン:自己紹介を簡単に。ボルダーで生まれ育ち、数学の大会などにたくさん参加して育ちました。ハーバード大学でコンピューターサイエンスを学び、a16zの支援も受けた会社を立ち上げました。最終的にはナイアンティックに買収されました。
それから私たちはデカゴンを作り始めました。私たちのビジネスは、カスタマーサービス用のAIエージェントを構築することです。当初は、自分たちにとって非常に身近なことをやりたかったからです。
もちろん、カスタマーサービスにおけるAIエージェントの役割については、誰も教える必要はありませんよね。私たちは皆、航空会社やホテルなどの電話で待たされた経験がある。そこでこのアイデアが生まれたのです。
どのような製品を作るべきかを正確に理解するために、多くの顧客と話をしました。私たちにとって特に目立ったポイントの1つは、AI Agentについて学ぶにつれて、AI Agentがたくさん存在するようになった将来について考え始めたことです。"">どんな状況になるのか。将来、AIエージェントがたくさん出てくると誰もが思っていると思います。
私たちにとって、AIの周りで働く人たちが何をするのかを考えることは価値があります。エージェントとして働く従業員は何をするだろうか?彼らはどのようなツールを持つのだろうか?彼らは、一緒に働いたり管理したりするエージェントをどのようにコントロールしたり、見たりするのでしょうか?
それが、私たちが会社を築き上げた核心なのです。AIエージェントを構築し、設定するために、私たちが一緒に働いている人々を支援するためのあらゆる種類のツールエージェントを提供しているからです。ブラックボックスではないようにします。そうやって私たちはブランドを築いていくのです。
デリック・ハリス:
。前の会社は消費者向けのビデオ会社でしたが、企業向けソフトウェアの分野に進もうと思ったきっかけは何ですか?
ジェシー・チャン:素晴らしい質問です。創業者は、トピックを選ぶとき、トピックにとらわれないことが多いと思います。というのも、実際、新しい分野に入門するときは、たいてい素朴なものだからだ。そのため、新鮮な視点から物事を見ることには利点がある。ですから、私たちが構想を練るとき、制限のないトピックはほとんどありません。
私も含め、これは定量的なバックグラウンドを持つ人にはよくあるパターンだと思います。消費者向け製品を試した後、より具体的な問題を抱える企業向けソフトウェアに引き寄せられる傾向があります。
実際の顧客には実際のニーズや予算などがあり、それに合わせて最適化し、問題を解決することができます。コンシューマー市場も魅力的ですが、より直感的で、実験的なものではありません。私個人としては、企業向けソフトウェアの方がはるかに適しています。
キンバリー・タン:まずはこの質問からデカゴン今日扱われているサポートで最も一般的なカテゴリーは何ですか?これらの問題を解決するために大規模言語モデル(LLM)をどのように使っているのか、また、以前はできなかったことが今できるようになるかもしれないことについて詳しく教えてください。
ジェシー・チャン:以前の自動化を振り返ると、決定木を使用して、進むべき道を決定するような単純なことを行っていたかもしれません。しかし、私たちは皆チャットボットを使用したことがあり、それは非常にフラストレーションのたまる経験でした。
多くの場合、問題はデシジョンツリーでは完全に解決できません。そのため、結局は問題に関連するものの、まったく適合しない問題への道を案内されることになります。現在、大規模言語モデル(LLM)があります。LLMのマジックは、非常に柔軟で、多くの異なるコンテキストに適応でき、基本的なインテリジェンスを持っていることです。
これをカスタマーサポートに適用すると、あるいは顧客が質問したときに、よりパーソナライズされたサービスを提供できるようになります。これが最初のポイントで、パーソナライゼーションのレベルがはるかに高くなります。そうすることで、より高い評価基準が可能になります。より多くの問題を解決することができ、顧客はより幸せになり、顧客満足度は向上する。
次の自然なステップは、このインテリジェンスがあれば、人間ができることをもっとできるようになるということです。人間にできることは、リアルタイムでデータを引き出し、行動を起こし、複数のステップを経て推論することです。顧客が比較的複雑な質問をしてきた場合、それは「あれもこれもやりたい」そしてAIが処理できるのは最初の1つだけです。LLMは賢いので、ここに2つの問題があることを認識している。まず、最初の問題を解決し、次に2番目の問題を解決する手助けをします。
LLMが登場する以前は、これは基本的に不可能でした。LLMが登場したからです。
キンバリー・タン: この文脈でAIエージェントをどう定義しますか?の?というのも、"エージェント"という用語は非常に広く使われているからです。デカゴンこの文脈では、具体的にどのような意味があるのでしょうか?
ジェシー・チャン:エージェントは、複数のLLM(大規模言語モデル)システムが1つになって動作している。LLMの呼び出しは、基本的にプロンプトを送信し、応答を得ることによって行われます。エージェントでは、おそらく再帰的にでも、複数のこのような呼び出しを接続できるようにしたいでしょう。
たとえば、LLMコールがあるとします。これらの呼び出しは、より多くのデータをプルし、アクションを実行し、ユーザーが言ったことを繰り返し、フォローアップの質問もするかもしれません。私たちにとって、Agentは、LLM呼び出し、呼び出しと理解できます。API呼び出し、またはより良いエクスペリエンスを提供するために連携する他の論理ネットワーク。
キンバリー・タン: このトピックでは、あなたたちが実際に何を作っているのか、もっと話せるかもしれませんエージェント
あなたの考えでは、今日のAIエージェントは、どのような分野でうまくいっているのでしょうか?また、より堅牢で信頼性の高いものにするために、どのような分野で技術的なブレークスルーがまだ必要なのでしょうか?
ジェシー・チャン:AIエージェントが単なるデモなのか、それともAIエージェントが単なるデモなのかを判断する、私の見解は実は少し違います。「実際の仕事おそらくほとんどの人がほぼ同じテクノロジーを使っていると思うので、違いは完全に技術スタックにあるわけではありません。私たちが1年以上やっているように、会社の発展がさらに進めば、非常に特殊でユースケースに合ったものを作るようになると思います。
しかし、結局のところ、誰もが同じモデルにアクセスでき、同じようなテクノロジーを使うことができます。私は、AIエージェントが効果的に機能するかどうかの最大の差別化要因は、ユースケースの形にあると思います。最初はこれを知るのは難しいですが、振り返ってみると、AI Agentがデモを越えて実世界のアプリケーションに入るために重要な2つの属性があることがわかります。
1つ目は、解決しようとしているユースケース、ROI(投資収益率)が定量化可能でなければならないということです。もしROIが定量化できなければ、人々が実際に製品を使用し、それにお金を払うように説得するのは非常に難しいからです。私たちの場合、定量化可能な指標は、サポート依頼の何パーセントを解決したか、ということです。この数字が明確であれば、人々は-ああ、もっと解決してくれれば、その結果を現在費やしているもの、費やしている時間と比較することができる。ですから、その指標が利用できるのであれば、私たちにとって非常に重要なもう1つの指標は顧客満足度です。なぜなら、ROIを簡単に数値化できることで、人々は実際にそれを採用するからです。
2つ目の要因は、ユースケースがインクリメンタルでなければならないということです。最初にエージェントが超人レベルに達する必要がある場合、ほぼ100%のユースケースを解決する必要があります。使用ケースを解決することも、非常に困難です。ご存知のように、< span leaf="">LLM< span leaf="">は非決定論的であるため、ある種の不測の事態に備えた計画を立てる必要があります。幸いなことに、サポートユースケースの良い点の1つは、いつでも人間のカスタマーサービスに問題をエスカレーションできることです。たとえ問題の半分しか解決できなくても、それは人々にとって非常に価値のあることです。
ですから、サポートのユースケースには、AI Agentにぴったり合う機能があると思います。なぜAI Agentが役に立つのかを理解するために、よく見なくても印象的なデモを作成できる分野は他にもたくさんあると思います。しかし、最初から完璧でなければならないとしたら、それは難しい。もしそうだとしたら、それを試したり使ったりしたいと思う人はほとんどいないでしょう。なぜなら、完璧でないことの結果は、セキュリティの問題など、非常に深刻なものになりかねないからです。
例えば、人々がシミュレーションを行うとき、常に次のような古典的な考えを持ちます。もしLLMがこれを読めたら素晴らしいだろう。でも、と言う人がいるとは想像しにくい。span leaf="">AIエージェント、頑張れ。君ならきっとできる。一度でもミスをすれば、その結果は非常に深刻なものになりかねませんから。
ジェシー・チャン:。これは通常、クライアントに任されており、実際には多くのばらつきが見られます。ある極端な例では、エージェントを本当に人間に見えるようにする人もいて、人間のアバターがあり、人間の名前があり、反応が自然です。一方、Agentは、自分自身をAIと直接名乗り、それを明確にユーザーに伝えます。私たちが一緒に仕事をしている会社によって、これに対する立場は異なると思います。
規制された業界にいる場合、多くの場合、それを明確にしなければなりません。今面白いと思うのは、顧客の行動が変化していることです。というのも、私たちの顧客の多くが、"なんということでしょう、こんなにリアルに感じたチャット体験は初めてですというようなソーシャルメディア上のフィードバックをたくさん得ているからです。「それとも魔法みたいだった。span>。顧客もまた、AIの体験であれば、人間よりも実際に優れているかもしれないと学んでいるのだから。というのも、過去には、私たちのほとんどが、電話によるカスタマーサービスを経験してきたからだ。さて、AIは、人間よりも優れているかもしれない。AI、AI...
。キンバリー・タン:
ジェシー・チャン:私たちにとって、パーソナライゼーションはユーザーをカスタマイズすることから生まれます。ユーザーの背景情報を知る必要があります。次に、クライアントのビジネスロジックを理解する必要があります。この2つを組み合わせれば、かなり良いエクスペリエンスを提供することができます。
明らかに、これは簡単に聞こえますが、実際に必要なコンテキストをすべて取得するのは非常に困難です。ですから、私たちの仕事のほとんどは、特定の顧客が私たちのシステムを展開するときに、「よし、これが私たちが望むビジネス・ロジックだ」と簡単に判断できるように、適切なプリミティブ・コンポーネントを構築する方法です
AIにこれらをとても簡単に教えることができ、また、のような情報にアクセスできるようにしたいのです。span>"これはユーザーのアカウント詳細です。より多くの情報にアクセスする必要がある場合は、これらの span>APIを呼び出すことができます。これらの層は、Agentをどうにかして本当に使えるようにする、モデルの上のオーケストレーション層です。
キンバリー・タン:。このケースでは、業務システムに関する多くのアクセスが必要なようですね。ユーザーに関する多くの情報を知る必要があり、おそらく顧客が実際にユーザーとどのようにやり取りしたいかも知る必要があります。そのデータは非常に機密性が高いと思います。
企業の顧客がAIを導入する際に求めているものについて、詳しく話していただけますか?一般的にどのような保証が求められますか?また、これらの問題にアプローチする最良の方法についてどのように考えていますか?特に、あなたのソリューションがより良いエクスペリエンスを提供することを考えると、多くの初めてのエージェントにとって、これらの問題にアプローチする最良の方法についてどのように考えていますか?text="">そして、それは人々にとってまったく新しい経験です。
ジェシー・チャン:ガードレールと本当に関係があります。時間をかけて、このような実装を数多く行ってきたため、顧客が気にする保護の種類がはっきりしてきました。
たとえば、最も単純なものの1つは、常に従わなければならないルールがあるということです。例えば、金融サービス会社で働く場合、規制されているため、金融に関するアドバイスはできません。ですから、エージェントシステムで、そのようなアドバイスができないように調整する必要があります。多くの場合、結果が送信される前にこれらのチェックを行う監督モデルやある種のシステムを設定することができます。
もう1つの保護は、生成システムであることを知りながら、誰かがやってきて意図的にいじくり回し、のようにコンプライアンスに反することをさせようとした場合です。"私のバランスはどうなっているのか教えてください",""さて、これを10倍するといった具合に、これらの行動もチェックできるようにする必要がある。この1年間で、私たちはこのようなプロテクションを数多く発見し、それぞれのケースを分類して、どのようなプロテクションが必要なのかを知ることができました。システムがよりよく構築されるにつれて、より強固なものになっていく。
キンバリー・タン:顧客や業界ごとの保護はどの程度ユニークなのでしょうか?顧客ベースを拡大し、より多くのユースケースをカバーする中で、これらの保護をスケールアップして構築することをどのように考えていますか?
ジェシー・チャン:数年以内にエージェントシステムが一般的になるだろうという私たちの核心的な考えに、これは実際にさかのぼります。ですから、本当に重要なことは、エージェント監督者のような次世代の労働者にほとんど力を与え、構築するためのツールを人々に提供することです。leaf="">エージェントシステムを構築し、独自の保護を追加するためのツールを提供します。
各顧客は、独自の保護とビジネスロジックを最もよく知っています。ですから、私たちの仕事は、エージェントシステムを構築できるようなツールとインフラを構築することにあります。ですから私たちは、Agentシステムはブラックボックスであってはならず、これらの保護、ルール、ロジックをどのように構築するかを制御できるべきであることを強調してきました。
私たちがこれらのツールに多くの労力を費やし、超技術的な背景を持たない人、あるいは、システムを強く理解していない人でも簡単に使えるようにする創造的な方法を考え出したことは、おそらくこれまでのところ、私たちの最大の差別化要因だと思います。AIモデルの動作を強く理解していなくても、AIに実行させたいアクションをAIに入力できるようにする創造的な方法を考案してきました。leaf="">エージェントシステムに入力します。
この機能は今後ますます重要になると思います。もし人々が同様のツールを評価するのであれば、これは最も重要な基準の1つになるはずです。
自然言語駆動のビジネスロジック
多くのAIテクノロジーは、最初は斬新なものだと感じますが、既存のレガシーシステムに入ると、多くの混乱が生じます。
ジェシー・チャン:。今、誰かがゼロから構築している場合、仕事を楽にするベストプラクティスがたくさんあります。たとえば、ナレッジベースの構築方法です。私たちはこれについて少し書き、AIが情報を取り込みやすくし、その精度を向上させる方法をいくつか説明しました。具体的な提案の1つは、複数の回答を含む大きな記事ではなく、知識ベースをモジュール式のセクションに分割することでした。
APIをセットアップする際、より適したものにすることが可能です。エージェントシステムが、答えを見つけるために多くの計算をする必要なく、情報を簡単に取り込むことができるように、許可と出力を設定します。これらは戦術的なステップの一部ですが、エージェントシステムを使うために必ずやらなければならないことがあるとは言いません。
デリック
キンバリー・タン。あなたたちが人々にチャンネルを合わせる方法を教えようとしているように聞こえるエージェントシステムを顧客や特定のユースケースに最適な方法で動作させるには、UIUXデザインに関する多くの実験が必要かもしれません。.
気になるのですが、みなさんはこれについてどう思いますか?エージェント好みの世界では、UIそしてUXはどうあるべきか?のようになるのでしょうか?今後数年でどのように変化すると思いますか?
ジェシー・チャン:問題を解決したとは言えません。現在のクライアントにとって局所的に最適な解決策を見つけたかもしれませんが、私たちにとっても、他の多くの人にとっても、これはまだ進行中の研究分野です。
核心的な問題は、エージェントシステムがあるという、前に述べたことに帰着します。まず第一に、それが何をしているのか、どのように意思決定をしているのかをどのように明確に見ることができるのでしょうか?そして、その情報を使って、何を更新する必要があり、どのようなフィードバックをAIに与えるべきかを決定するにはどうすればよいでしょうか。これらはUI要素が収束する場所であり、特に2番目の部分です。
私たちは、時間の経過とともに、UIとUXが収束していくと考えています。leaf="">UXはますます自然に言語化されていくでしょう。なぜなら、それがエージェントシステムが考える方法だからです。="">LLMs)のトレーニングは基本的にそれに基づいている。
限定的な観点から言えば、超知的なエージェントがいれば、それは基本的に人間のようなものです。人間のようなもので、物事を見せたり、説明したり、フィードバックを与えたりすれば、それは自分の心の中にいることになる。span leaf="">で更新されている。とても有能な人があなたのチームに加わり、あなたが彼に何かを教え、彼は仕事を始め、そしてあなたは彼にフィードバックを与え続け、新しいもの、新しい文書、図などを見せることができると想像できます。
限界では、このような方向に進むと思います:物事はより会話的になり、より自然言語に基づくようになり、人々は過去のように欲しいものを捕らえる複雑な決定木でシステムを構築することはありません。しかし、そのようなアプローチは崩壊しやすい。以前はLLMがなかったので、そうしなければなりませんでしたが、エージェントシステムがますます強力になるにつれて、LLMを使用しなければならなくなりました。span leaf="">UIとUXはより会話的になるでしょう。
キンバリー・タン:1年ほど前のことですデカゴン始まった当初は、LLMは多くのユースケースに非常に適用できると広く信じられていましたし、実際、いくつかのいわゆる「GPTラッパー"、つまり、APIを通すだけでよい。サポート問題を即座に解決するベースモデルへの呼び出し。
しかし、のようなシステムを使用することを選択する企業があることは明らかです。Decagonのようなシステムを使用することを選択する企業では、そのようなアプローチに直行するのではなく、そうでないことが証明されています。その理由を説明していただけませんか?インハウスを構築する際に直面する課題を、予想以上に複雑なものにしているのは一体何なのでしょうか?コンセプトに対する誤解は何なのでしょうか?
ジェシー・チャン:GPTラッパー。は間違いではなく、PurcellはAWSラッパーである、とかいう言い方もできる。通常、人々がこの言葉を使うとき、それは侮蔑的な意味を意味する。
私の個人的な意見としては、エージェントシステムを構築する場合、定義上、間違いなくAWSを活用することになると思います。LLMをツールとして活用することになります。AWSやGCPに基づいて構築するのと同じように、すでにあるものを基に構築しているのです。
しかし、本当に問題になるのは、LLMで十分なソフトウェアを構築しない場合です。leaf="">"重い、または違いを生み出すほど複雑ではありません。
私たちにとって、振り返ってみると、私たちが売っているのは基本的にソフトウェアです。LLMをソフトウェアの一部として、またツールの1つとして使っていることを除けば、私たちは本当に普通のソフトウェア会社と同じです。しかし、人々がこのような製品を購入するとき、主にソフトウェアそのものが欲しいのです。彼らは、AIを監視できるツールを求めており、AIすべての会話の詳細を深く掘り下げることができることを望んでいます。システムを継続的に構築し、調整することができる。
それが私たちのソフトウェアの核心です。Agentシステム自体でも、人々がぶつかる問題は、デモを行うのはクールだが、本番に対応させ、本当に顧客と向き合おうとするなら、を防ぐなど、多くの長年の問題を解決しなければならないということです。「幻覚現象や、大混乱を引き起こそうとする悪質な行為者への対処など、多くの長年の問題を解決しなければなりません。私たちはまた、遅延が十分に低いこと、トーンが適切であることなどを確認する必要がありました。
私たちは、いくつかの実験を行い、初期バージョンを構築した多くのチームと話をしました。ああ、それは本当だ、私たちは後の段階でこれらの詳細を構築し続けるような人間にはなりたくない。< span leaf="">"また、カスタマーサービスチームに常に新しいロジックを追加し続けるような存在にもなりたくない。ですから、この時点では、他の人と協力するという選択肢の方が適切だと思われます。
キンバリー・タン:悪質業者への対処の必要性など、長年の課題についても言及されましたね。リスナーの多くは、AIエージェントの使用を検討しているとき、を導入することを懸念していると思います。LLMが新たなセキュリティ攻撃経路につながるか、エージェントを導入することを懸念しています。システムは新たなセキュリティリスクをもたらすかもしれません。このような問題をどのようにお考えですか?また、エージェントを扱う際に、トップクラスの企業セキュリティを確実に維持するためのベストプラクティスは何でしょうか?
ジェシー・チャン?セキュリティーに関しては、以前にも述べたように、保護が必要であるなど、明らかな対策があります。核心的な問題は、LLMの懸念は、決定論的ではないということです。
しかし、良いニュースは、APIを呼び出すことになると、実際には、機密で複雑な操作のほとんどを決定論的な壁の後ろに置くことができるということです。= "">を呼び出す場合、計算はそこで行われます。つまり、LLMに完全に依存することなく処理できるため、多くのコア問題を回避できます。
しかし、例えば、悪質な行為者が妨害したり、誰かがシステムを幻覚化しようとしたりする状況は依然として存在します。私たちが一緒に仕事をしている多くの大手顧客では、セキュリティ・チームが中に入って、基本的に私たちの製品に対してレッド・チームを行うことを確認しています!「テストに何週間も費やし、脆弱性を見つけようとして、システムに対してありとあらゆる攻撃を仕掛け続けます。AIエージェントがより一般的になるにつれて、このような光景を目にする機会はますます増えていくでしょう。システムが効果的かどうかをテストする最善の方法の1つは、レッドチームテストを経て、防御を突破できるかどうかを確認するために何かを投げつけることだからです。
また、レッドチーム・ツールを開発したり、この種のテストを自分で行えるようにしたりする新興企業も出てきています。私たちが一緒に仕事をしている企業の多くは、販売サイクルの後期になると、自社のセキュリティ・チームを持つか、外部のチームと協力してシステムのストレス・テストを行います。私たちにとって、そのようなテストに合格することは必須条件です。つまり、最終的にはこうなる。これは顧客に勧めていることですか? span>私たちが span>AILLMアプリケーションのユーザーとアプリケーションを実行する人々に責任を負わせることの重要性を強調しました。単にモデルそのものを非難するのではなく、アプリケーションを実行する人々について。つまり、ユーザーはレッド チーム テストを実施し、特定のユース ケースと攻撃経路を特定し、
ジェシー・チャン:まったく同感だ。また、SOC 2認証、HIPAA認証など、さまざまな業界が要求しているような、新しい通知要件の波が来るかもしれないと思います。業界ごとに要求事項があります。一般的に、通常のSaaS製品を販売する場合、顧客はペネトレーションテストを要求します。AI Agentについては、将来的に同じような要件があるかもしれませんし、誰かがそれを命名するかもしれませんが、これは基本的に、Agentシステムが新しい方法で十分に堅牢であるかどうかをテストします。
キンバリー・タン:。興味深いことのひとつは、すべての大きな研究所から出ている新しいモデリングのブレークスルーや技術的ブレークスルーについて、明らかに多くの興奮があるということです。応用AI企業として、あなたは明らかに独自の研究をしているわけではありません。
しかし、あなたの仕事は急速に変化するテクノロジーを基盤に構築されており、私はアプリとして興味があります。AI企業として、どのようにして自社の製品ロードマップを予測し、ユーザー要件を構築し、同時に新しい技術的変化を把握し、それが企業にどのような影響を与えるかを理解することができるのでしょうか?もっと広く言えば、同じような状況に直面しているアプリAI企業の戦略はどうあるべきでしょうか?
ジェシー・チャン:実際には、スタック全体をさまざまな部分に分けることができます。たとえば、LLMアプリケーション レイヤーを見ると、LLMは一番下にあります。LLMを管理したり、評価したりするのに役立つツールが真ん中にあるかもしれません。そして、一番上の部分は基本的に我々が構築したもので、実際には標準的なSaaSのようなものです。
ですから、私たちがやっていることのほとんどは、通常のソフトウェアとそれほど変わりません。LLMはとても速く変化します。私たちは、LLM が何ができるのか、何が得意なのか、特定のタスクを実行するためにどのモデルを使用すべきなのかを調べる必要があります。というのも、OpenAIとAnthropicはどちらも新しいテクノロジーを展開しているからです。leaf="">Geminiも徐々に良くなっている。
そのため、どのモデルがどの状況に適しているかを理解するために、独自の評価メカニズムを持つ必要があります。微調整が必要な場合もありますが、問題はいつ微調整を行うかです。いつ微調整する価値があるのか?これらはおそらく、LLMに関連する研究上の疑問であり、私たちは主にこれに焦点を当ててきました。しかし、少なくとも今のところ、私たちはSaaSが急速に変化しているとは感じていません。基本的に、変化しているのはLLMです。LLMはあまり頻繁に変更されることはなく、変更されるときはたいてい1回のアップグレードです。たとえば、Claude 3.5 sonnetは数ヶ月前に一度更新されましたが、そのとき私たちは次のように考えました:。「さて、古いモデルのままではなく、新しいモデルに切り替えるべきか?"
一連の評価を実行するだけで、新しいモデルに切り替えたら、もうそれ以上考えることはありません。次にo1バージョンが出てきますが、同じような状況で、何に使えるかを考えます。私たちの場合、o1は、顧客と対面するほとんどの使用シナリオには少し遅いので、バックグラウンドの作業に使うことができます。結局のところ、私たちにはモデリングを行うための優れたシステムが必要なのです。
キンバリー・タン:。どのくらいの頻度で新モデルを評価し、買い替えるかどうかを決めるのですか?
ジェシー・チャン:新しいモデルが出るたびに、私たちはそれを評価します。新しいモデルがより賢くても、すでに構築したユースケースのいくつかを壊さないようにしなければなりません。これは起こりうることだ。たとえば、新しいモデルは全体的に賢くても、極端なケースでは、ワークフローのA/B選択でうまく機能しないことがあります。それが私たちが評価しているものです。「コマンド追従能力、私たちはモデルが命令を実行するのがどんどんうまくなることを望んでいます。もしそうなら、それは間違いなく私たちにとって有利であり、非常に良いことです。
最近の研究では、プログラミングが得意、数学が得意など、知能の推論タイプに重点を置いているようです。それも役に立つが、命令に従う能力の向上ほどではない。
キンバリー・タン:非常に興味深いご指摘ですね。leaf="">デカゴンにとって非常にユニークなのは、提供する一連のテストの下で各モデルがどのように機能するかを正確に把握するために、社内に多くの評価インフラを構築していることです。
これについて詳しく教えてください。この内部評価インフラストラクチャはどれほど重要で、具体的には、Agentのパフォーマンスに対する信頼性を、あなたと顧客の両方にどのように与えるのでしょうか?なぜなら、これらの評価の一部は顧客向けでもあるからです。
ジェシー・チャン:。評価インフラがないと、迅速に反復することが難しいので、とても重要だと思います。
変更を加えるたびに何かを壊してしまう可能性が高いと感じたら、素早く変更を加えることはできません。しかし、評価の仕組みがあれば、大きな変更、モデルの更新、何か新しいものが登場したときに、すべての評価テストと比較すればいい。評価が良ければ、「よし、改善できた」と感じることもできるし、あまり気にせずにリリースすることもできる。
ですから、私たちのスペースでは、評価には顧客の意見が必要です。もちろん、私たちは高レベルの質問のいくつかをチェックすることができますが、特定のユースケースを提供し、何が正しい答えなのか、あるいはどのように見えなければならないのか、どのようなトーンを維持しなければならないのか、何を言わなければならないのかを教えてくれるのは、たいてい顧客です。
アセスメントはこれらに基づいています。ですから、私たちの評価システムが十分に堅牢であることを確認する必要がありました。当初は自分たちで構築しましたが、メンテナンスはそれほど難しくありませんでした。また、これらのいくつかを研究している査定会社があることも知っており、いずれ採用するかどうかを検討することになるかもしれませんが、今のところ、査定システムは私たちにとってもはや悩みの種ではありません。
キンバリー・タン: 今日人気のトピックはマルチモーダル、つまりAIエージェント
ジェシー・チャン:新しいモダリティを追加することは重要であり、会社から見れば特に難しいことではありません。単純なことではありませんが、その核心は、私が述べたような-AIの構築など他の問題を解決すればということです。を構築し、それを監視し、適切なロジックを持つこと、それから新しいモダリティを追加することは、最も難しいことではありません。ですから、私たちにとって、すべてのモダリティを持つことは非常に理にかなっていますし、私たちの市場を拡大することになります。私たちは基本的にモダリティにとらわれず、モダリティごとに独自のエージェントを構築しています。
一般的に、2つの制約があります:まず、クライアントは新しいモダリティを採用する準備ができているのか?テキストから始めるのは非常に理にかなっていると思います。なぜなら、テキストは人々が最も採用する気になるモダリティであり、彼らにとってリスクが低く、監視しやすく、理解しやすいからです。もうひとつの大きなモダリティは音声です。もちろん、音声がユーザーに受け入れられるには、市場にはまだ余地があると思います。現在、私たちは音声エージェントの早期採用者を見ていますこれはエキサイティングなことです。コインの裏側には、技術的な課題があります。ほとんどの人は、音声がより高い水準にあることに同意するでしょう。電話で誰かと話している場合、音声の待ち時間は非常に短くなければなりません。相手の話を遮った場合、相手は自然に反応する必要があります。
音声はレイテンシーがずっと低いので、それを計算する方法をもっと賢くしなければなりません。チャットで応答時間が5秒から8秒なら、ほとんど気づかないし、とても自然に感じられる。しかし、もしあなたが電話で話していて、応答時間が同じく5秒から8秒かかるとしたら、それは少し不自然に感じられるでしょう。だから、音声にはもっと技術的な課題がありそうだ。これらの技術的な課題が解決され、音声の採用に対する市場の関心が高まって初めて、新しいモダリティとしての音声が主流になるのです。
信頼を飛躍させるビジネスモデル
ジェシー・チャン:一番驚いたのは、私たちが活動を始めた当初、人々が積極的に話しかけてくれたことだと思います。結局のところ、私たちはただの2人でした。私たちは2人とも以前会社を立ち上げたことがあったので、多くの人を知っていましたが、それでも、入門的な会話を得ようとするすべての起業家にとって、あなたの言っていることが特に魅力的でなければ、会話はたいてい冷たくなります。
しかし、このユースケースについて話し始めたとき、私は実際に、人々がそれについて話すことに興奮していることにちょっと驚きました。なぜなら、このアイデアはとても明白に思えるからだ。これほど明白なアイデアなのだから、誰かがすでにやっているはずだとか、すでに解決策があるはずだとか、誰かがすでに何らかの解決策を思いついているはずだと思うかもしれない。でも、私たちはいいタイミングでそれをつかんだと思うし、そのユースケースは本当に大きく、人々は本当にそれを気にかけていた。前にも述べたように、そのユースケースはAI Agentを採用し、本番環境に持ち込むのに最適です。
それは私にとって嬉しい驚きでしたが、その後にやるべきことがたくさんあるのは明らかです。初期段階では本当に驚くべき発見だった。
デリック・ハリス:
。スパンキンバリー、あなたが書いた記事に言及すべきだったような気がします
キンバリー・タン そう思います。いくつか言いたいことがある。まず、あるアイデアが誰の目にも明らかであるにもかかわらず、それに取り組む明確な企業がない場合、あるいは誰も企業を指してこれを使うべきだと言っていない場合だ。「ということは、この問題は実際には対処されていないということです。
ある意味、企業が解決策を開発するための完全にオープンな機会です。というのも、おっしゃるとおり、私たちはデカゴンを投資家として最初から追いかけてきました。彼らがクリエイティブな迷路を歩いているのを私たちは見ていました。そして、彼らがその方向性をサポートすることに落ち着き、顧客と話し始めたとき、その全員がある種のネイティブなAIサポートソリューションを切望していることは明らかでした。それは、私が前に述べた問題の1つで、多くの人々がそれを単なるGPTラッパーだと考えているということです。しかし、デカゴンが最初から持っていた顧客の関心によって、私たちは早い段階で、これらの問題の多くが人々が予想するよりも複雑であることに気づきました。
この現象は、カスタマーサービスであろうと、特定の垂直分野での特殊な自動化であろうと、業界全体で起こっていると思います。Jesseが先に述べたように、自動化されたタスクの投資収益率(ROI)を明確に測定できることは、過小評価されているポイントの1つだと思います。なぜなら、もしあなたが誰かにAIエージェントを引き受けさせようとするなら、彼らは実際に何らかのことをしているからです。"信仰の飛躍"""""多くの人にとって非常に馴染みのない領域だからだ。
非常に特定のプロセスを自動化することができ、それが明らかに利益を生み出すプロセスであるか、以前はビジネスのボトルネックとなっていたプロセスであるか、または、次のようなプロセスである場合。AIエージェントが受け入れられるのはずっと簡単です。このような問題を、従来のソフトウェアのように拡張できる、より製品化されたプロセスに変える能力は、非常に魅力的です。
キンバリー・タン:。次に進む前に最後の質問があります。ジェシー以前このことを議論していたとき、企業は常にソフトウェアや
ジェシー・チャン:人々はイリュージョンの問題を気にしていると思いますが、彼らが提供できる価値をもっと気にしています。私たちが一緒に仕事をしているほとんどすべての企業が、ほぼ正確に、同じいくつかの質問に焦点を当てています:何パーセントの会話を解決できますか?顧客の満足度は?そして、幻の質問は第3のカテゴリーに分類されるかもしれない、それはどのくらい正確なのか。一般的に言って、評価する際には最初の2つの要素がより重要です。
新規事業と対話をしていて、最初の2つの分野で素晴らしい仕事をしていると仮定すると、会社のリーダーやチームの全員から多くの支持が得られるでしょう。なんということでしょう、私たちのカスタマー・エクスペリエンスはこれまでとは違うのです。サービスです。それはほんの一部で、同時に多くのお金を節約しています。
だから、その目標が達成されれば、多くのサポートがあり、突き進む上で追い風になる。もちろん、幻覚の問題はいずれ対処する必要があるが、それは彼らの最大の関心事ではない。幻覚に対処する方法は、私が前に述べたのと同じ方法です-人々はあなたをテストするでしょう。実際に対話を行う概念実証の段階があるかもしれませんし、チームメンバーには監視して正確さをチェックする人がいます。このセッションで問題がなければ、通常は見事にパスします。
さらに、前にも述べたように、機密情報に対して設定できる厳重な保護があります。ですから、幻覚の問題はほとんどの取引で論点になります。重要でない話題ではありませんし、プロセスを経ることになりますが、対話の焦点になることはありません。
キンバリー・タン:現在AIエージェントAIエージェントこれらのビジネスモデルの価格設定。
歴史的に、多くのSaaSソフトウェアは、従業員の生産性を向上させるための個々の従業員のためのワークフロー・ソフトウェアであったため、シートごとに価格が設定されていました。しかし、AIエージェントは、従来のソフトウェアのように個々の従業員の生産性に縛られることはありません。
そのため、多くの人が、座席ごとの価格設定はもはや機能しないのではないかと考えています。AIエージェントが普及するにつれ、ソフトウェアの価格設定における今後のトレンドはどうなるのでしょうか?
ジェシー・チャン:過去において、ソフトウェアはシートごとに価格が決められていました。
アーサー・ヘイズは、ビットコイン半減と米連邦準備制度理事会(FRB)の動きにより、暗号市場が低迷すると予測している。
ソラナネットワーク、4月15日までにトランザクション障害のバグに対処へ。ネットワークの安定性に対する懸念から、市場の評価が高騰する中、コミュニティーの注目が高まっている。
国税庁は、ブロックチェーン調査会社ZachXBTに協力を求めるという強引な手法で、プライバシーや専門性に対する懸念を募らせ、批判に直面している。
ドナルド・トランプは、暗号通貨への投資が著しく落ち込んでおり、現在保有している暗号通貨の評価額は530万ドルで、300万ドル近い損失となっている。
調査の結果、このトレーダーは、グーグル・クローム・ブラウザのセキュリティ侵害が、特に特定の暗号ウォレット拡張機能を狙ったキーロガーによって実際に引き起こされたことを確認した。
バイナンス幹部、ナイジェリアでのマネーロンダリング容疑に対し無罪を主張 脱税や人権侵害の法的非難を浴びる中
SushiSwapは、不正操作の疑惑の中で、論争の的となっているガバナンスの提案を行い、プラットフォームの将来の方向性について疑問を投げかけている。
IO.net、ビットコイン半減後のIOトークン発売を発表。ネットワーク機能の強化、パワーの分散化、コミュニティへの関与の促進を目指す。
TON Blockchain Hackathonでのロバート・リーの投稿に端を発し、TON、HashKey、Oyster Labsのコラボレーションによる新しい「ユニバーサル・ベーシック・スマートフォン」についての憶測が渦巻いている。詳細は未確認のままだが、4月8日の正式予約開始への期待は高まっている。
Lumoz(旧Opside)が600万ドルの評価額を確保、Lumozトークン発売準備、開発者向けにzk-rollup技術の簡素化を目指す。