저자: 0xai, AI Creative Platform 출처: medium 번역: 굿오바, 골든파이낸스
비텐서란 정확히 무엇인가요?
비트센서 자체는 인공지능 제품이 아니며, 인공지능 제품이나 서비스를 생산하거나 제공하지도 않습니다.비트센서는 인공지능 제품 생산자에게 높은 경쟁 인센티브 시스템을 제공함으로써 인공지능 제품 시장의 최적화 역할을 하는 경제 시스템입니다. 비텐서 생태계에서 우수한 생산자는 더 많은 인센티브를 받고, 경쟁력이 떨어지는 생산자는 점차 퇴출됩니다.
0xai 팀, Jacob, Vitalik의 패널 토론
그렇다면 비텐서는 효과적인 경쟁을 장려하고 양질의 AI 제품의 유기적인 생산을 촉진하기 위해 구체적으로 어떻게 이러한 인센티브를 만들었을까요?
비텐서 플라이휠 모델
비텐서는 플라이휠 모델을 통해 이를 달성합니다. 검증자는 생태계에서 AI 제품의 품질을 평가하고 품질에 따라 인센티브를 할당하여 고품질 생산자가 더 많은 인센티브를 받을 수 있도록 합니다. 이는 고품질 산출물의 지속적인 증가를 자극하여 비텐서 네트워크의 가치를 높이고 TAO 가치를 높이며, TAO 가치는 더 많은 고품질 생산자가 비텐서 생태계에 참여하도록 유도할 뿐만 아니라 품질 평가 결과를 조작하려는 조작자의 공격 비용도 증가시킵니다. 이는 정직한 검증자들의 합의를 더욱 강화하고 평가 결과의 객관성과 공정성을 높여 보다 효과적인 경쟁과 인센티브로 이어집니다.
평가 결과의 공정성과 객관성을 확보하는 것은 플라이휠을 돌리는 데 있어 매우 중요한 단계입니다. 이는 비텐서의 기술인 유마 합의 기반 추상 검증 시스템의 핵심이기도 합니다.
그렇다면 유마 컨센서스란 무엇이며, 합의 후 공정하고 객관적인 품질 평가 결과를 어떻게 보장할 수 있을까요?
유마 컨센서스는 다수의 검증자가 제공하는 다양한 평가로부터 최종 평가 결과를 산출하기 위해 고안된 합의 메커니즘입니다. 비잔틴 장애 허용 합의 메커니즘과 유사하게, 네트워크 내 대다수의 검증인이 정직하다면 결국 올바른 결정에 도달할 수 있습니다. 정직한 검증인이 객관적인 평가를 제공할 수 있다고 가정하면, 합의 후 평가 결과도 공정하고 객관적일 것입니다.
서브네트워크 품질 평가를 예로 들면, 루트 네트워크 검증자는 각 서브네트워크 출력의 품질을 평가하고 순위를 매깁니다. 64개의 검증자의 평가 결과를 합산하고 유마 합의 알고리즘을 통해 최종 평가 결과를 얻습니다. 최종 결과는 각 서브넷에 새로 생성된 TAO를 할당하는 데 사용됩니다.
현재 Yuma 합의에는 개선의 여지가 있습니다.
루트 네트워크 검증자는 모든 네트워크의 검증자를 완전히 대표하지 못할 수 있습니다. TAO 보유자를 완전히 대표하지 않을 수 있으며, 이들이 제공하는 평가가 반드시 광범위한 견해를 반영하는 것도 아닙니다. 또한 일부 상위 검증인의 평가가 항상 객관적이지 않을 수도 있습니다. 편견이 발견되더라도 즉시 수정되지 않을 수도 있습니다.
루트 네트워크 검증자의 존재는 비트센서가 수용할 수 있는 서브넷의 수를 제한합니다. 중앙화된 거대 AI와 경쟁하기 위해서는 32개의 서브넷만으로는 충분하지 않습니다. 하지만 서브넷이 32개라 하더라도 루트 네트워크 검증자가 모든 서브넷을 효과적으로 모니터링하기는 어려울 수 있습니다.
검증자가 새로운 서브넷으로 마이그레이션하려는 의지가 강하지 않을 수 있습니다. 단기적으로 검증자는 배출량이 많은 기존 서브넷에서 배출량이 적은 새 서브넷으로 마이그레이션할 인센티브를 잃을 수 있습니다. 새로운 서브그리드의 배출량이 결국 따라잡을 것이라는 불확실성과 추적 과정에서 명백한 보상 손실이 더해지면 마이그레이션 의지가 약화됩니다.
비텐서는 또한 이러한 단점을 해결하기 위해 메커니즘을 업그레이드할 계획입니다.
. 동적 TAO는 서브넷의 품질을 평가할 수 있는 권한을 소수의 검증자가 아닌 모든 TAO 보유자에게 분산하며, TAO 보유자는 서약을 통해 각 서브넷이 할당되는 비율을 간접적으로 결정할 수 있게 됩니다.
루트 네트워크 검증자 수에는 제한이 없으며, 활성 서브넷의 최대 수는 1024개로 늘어날 것입니다. 이는 새로운 팀이 비트센서 생태계에 합류하는 장벽을 크게 낮추고, 서브넷 간의 경쟁을 촉진할 것입니다.
새 서브넷으로 더 일찍 마이그레이션하는 검증자는 더 높은 보상을 받을 수 있습니다. 새 서브넷으로 일찍 마이그레이션하면 해당 서브넷의 dTAO를 더 낮은 가격에 구매할 수 있으므로 향후 더 많은 TAO를 받을 가능성이 높아집니다.
강력한 포용성은 또한 각 서브넷의 배출량을 결정할 뿐만 아니라 동일한 서브넷 내 각 채굴자와 검증자에게 할당되는 비율을 결정하는 데에도 사용되는 유마 컨센서스의 주요 장점입니다. 또한, 채굴자의 작업이 무엇이든 계산 능력, 데이터, 인간의 기여도, 지능 등 해당 작업에 포함된 기여도가 추상적으로 고려됩니다. 그 결과, AI 상품 생산의 모든 단계에서 비트센서 생태계에 접근하여 인센티브를 누리는 동시에 비트센서 네트워크의 가치를 높일 수 있습니다.
다음으로는 몇 가지 주요 하위 네트워크를 살펴보고, 비텐서가 이러한 하위 네트워크의 산출물에 어떻게 인센티브를 제공하는지 살펴보겠습니다.
서브넷
서브넷 3: 마이쉘 TTS
서브넷 3: 마이쉘 TTS
Subnet 3: Myshell TTS>는 GitHub에 계정을 생성하여 기여를 할 수 있습니다. 계정을 생성하여 myshell ai/MyShell TTS 서브넷 개발에 기여할 수 있습니다.
유통량: 3.46% (2024년 4월 9일)
배경: 마이쉘은 MIT, 옥스퍼드, 프린스턴 및 기타 명문대 출신의 핵심 멤버로 구성된 마이쉘 TTS(텍스트 음성 변환) 개발팀으로, 프로그래밍에 대한 배경 지식이 없는 대학생도 원하는 로봇을 쉽게 만들 수 있는 노코드 플랫폼을 만드는 것을 목표로 하며, TTS 분야, 오디오북 및 가상 비서를 전문으로 합니다. 2023년 3월에 첫 음성 챗봇인 사만다를 출시했으며, 제품 매트릭스를 확장하여 현재 100만 명 이상의 등록 사용자를 보유하고 있습니다. 이 플랫폼은 언어 학습, 교육, 유틸리티 봇 등 다양한 봇을 호스팅하고 있습니다.
포지셔닝: Myshell은 전체 오픈 소스 커뮤니티의 지혜를 모아 최고의 오픈 소스 TTS 모델을 구축하기 위해 이 서브넷을 출범시켰습니다. 즉, Myshell TTS는 모델을 직접 실행하거나 최종 사용자의 요청을 처리하는 것이 아니라 TTS 모델 학습을 위한 네트워크입니다.
Myshell TSS 아키텍처
Myshell TTS 실행의 흐름은 위와 같습니다. 채굴자는 모델을 훈련하고 훈련된 모델을 모델 풀에 업로드하고(모델의 메타데이터도 비텐서 블록체인 네트워크에 저장됨), 검증자는 테스트 사례를 생성하고 모델 성능을 평가하며 그 결과에 따라 모델을 점수화하여 모델을 평가하고, 비텐서 블록체인은 유마 합의 집계 가중치를 사용하여 각 채굴자에 대한 최종 가중치 및 할당 비율을 결정할 책임이 있습니다.
요약하면, 채굴자는 보상을 유지하기 위해 더 높은 품질의 모델을 계속 제출해야 합니다.
마이쉘은 또한 사용자가 마이쉘 TTS의 모델을 사용해 볼 수 있도록 플랫폼에서 데모를 출시했습니다.
앞으로 Myshell TTS로 학습된 모델의 안정성이 높아짐에 따라 더 많은 사용 사례가 온라인에 등장할 것입니다. 또한 오픈 소스 모델로서 Myshell에만 국한되지 않고 다른 플랫폼으로도 확장할 수 있습니다. 이러한 탈중앙화된 접근 방식을 통해 오픈 소스 모델을 훈련하고 동기를 부여하는 것이 바로 우리가 탈중앙화된 AI에서 목표로 하는 것이 아닐까요?
서브넷 5: 오픈 카이토
GitHub에서 계정을 생성하여 오픈 카이토의 개발에 기여할 수 있습니다.
유통량: 4.39%(2024년 4월 9일)
배경: Kaito.ai의 핵심 멤버는 AI 분야에서 풍부한 경험을 가진 Open Kaito 팀입니다. 에 대한 풍부한 경험을 보유한 핵심 멤버들로 구성되어 있습니다. 비텐서 서브넷에 합류하기 전인 2023년 4분기에 주력 제품인 웹3.0 오프체인 데이터 검색 엔진인 Kaito.ai를 출시했습니다. 인공 지능 알고리즘을 사용해 데이터 수집, 랭킹 알고리즘, 검색 알고리즘 등 검색 엔진의 핵심 구성 요소를 최적화하는 Kaito.ai. 암호화폐 커뮤니티에서 동급 최고의 정보 수집 도구로 인정받고 있습니다.
포지셔닝: Open Kaito는 지능형 검색과 분석을 지원하는 탈중앙화 인덱싱 레이어를 구축하는 것을 목표로 합니다. 검색 엔진은 단순한 데이터베이스나 랭킹 알고리즘이 아니라 복잡한 시스템입니다. 또한 효과적인 검색 엔진은 짧은 지연 시간을 필요로 하기 때문에 탈중앙화 버전을 구축하는 데 있어 또 다른 과제를 안고 있습니다. 다행히도 비텐서의 인센티브 시스템을 통해 이러한 문제들이 해결될 것으로 기대됩니다.
오픈 카이토의 운영 흐름은 위와 같으며, 오픈 카이토는 단순히 검색 엔진의 각 구성 요소를 탈중앙화하는 대신 인덱싱 문제를 마이너 검증자 문제로 정의합니다. 즉, 채굴자는 사용자의 인덱싱 요청에 응답하고, 검증자는 수요를 분배하고 채굴자의 응답에 점수를 매기는 역할을 담당합니다.
오픈 카이토는 채굴자가 인덱싱 작업을 완료하는 방법을 제한하지 않고, 대신 채굴자의 최종 결과물에 집중하여 혁신적인 솔루션을 장려합니다. 이는 채굴자 간의 건전한 경쟁 환경을 조성하는 데 도움이 됩니다. 사용자의 인덱싱 요구에 직면하여 채굴자들은 더 적은 자원으로 더 높은 품질의 응답 결과를 얻기 위해 실행 계획을 세분화하기 위해 노력합니다.
서브넷 6: Nous Finetuning
GitHub에서 계정을 생성하여 Nous 연구/핀튜닝 서브네트워크에 기여할 수 있습니다. 개발.
유통량: 6.26%(2024년 4월 9일)
배경: Nous Finetuning 팀은 대규모 대규모 언어 모델링(LLM) 아키텍처, 데이터 합성 및 디바이스 내 추론에 중점을 둔 회사입니다. 공동 창립자들은 이전에 Eden Network의 수석 엔지니어였습니다.
포지셔닝: Nous Finetuning은 대규모 언어 모델을 미세 조정하는 데 전념하는 하위 네트워크입니다. 또한 미세 조정에 사용되는 데이터는 비트센서 에코시스템, 특히 서브넷 18에서 제공됩니다.
Nous Finetuning은 마이쉘 TSS와 유사하게 운영됩니다. 채굴자는 서브넷 18의 데이터를 기반으로 모델을 훈련하고 주기적으로 이러한 모델을 게시하여 호스팅을 위해 검증자는 모델을 평가하고 점수를 제공하며, 마찬가지로 비텐서 블록체인은 유마 합의를 사용하여 가중치를 집계하여 각 채굴자에 대한 최종 가중치와 발행량을 결정합니다.
서브넷 18: Cortex.t
corcel-api/cortex.t의 개발에 기여하려면 GitHub에서 계정을 생성하여 참여할 수 있습니다.
유통량: 7.74%(2024년 4월 9일)
배경: Cortex.t의 개발팀은 Bittensor 네트워크에서 두 번째로 큰 검증자인 Mog의 지원을 받고 있는 Corcel.io입니다. Corcel.io는 최종 사용자를 대상으로 하는 앱으로, Bittensor의 AI 제품 생태계를 활용하여 ChatGPT와 유사한 경험을 제공합니다.
배치:Cortex.t는 최종 사용자에게 결과를 전달하기 전 최종 레이어로 배치됩니다. 특히 단일 큐가 여러 모델을 호출할 때 정확하고 신뢰할 수 있는 결과를 보장하기 위해 다양한 서브넷의 출력을 감지하고 최적화하는 역할을 담당하며, Cortex.t는 공백이나 일관되지 않은 출력을 방지하여 원활한 사용자 경험을 보장하도록 설계되었습니다.
Cortex.t의 채굴자들은 최종 사용자의 요청을 처리하기 위해 Bittensor 에코시스템의 다른 서브넷을 활용합니다. 또한 최종 사용자에게 신뢰성을 보장하기 위해 GPT 3.5 터보 또는 GPT 4를 사용하여 출력을 검증합니다. 검증자는 채굴자의 산출물을 OpenAI가 생성한 결과와 비교하여 평가합니다.
서브넷 19: 비전
GitHub에서 계정을 생성하여 namoray/vision 개발에 기여하세요.
유통량: 9.47% (2024년 4월 9일)
배경: 비전 개발팀도 Corcel.io 출신입니다.
배경: Vision은 DSIS(분산 규모 추론 서브네트워크)라는 최적화된 서브넷 구성 프레임워크를 활용하여 비트센서 네트워크의 출력 용량을 극대화하는 것을 목표로 합니다. 이 프레임워크는 검증자에 대한 채굴자의 응답을 가속화합니다. 현재 비전은 이미지 생성 시나리오에 초점을 맞추고 있습니다.
검증자는 Corcel.io 프런트엔드에서 요청을 받아 채굴자에게 배포합니다. 채굴자는 원하는 기술 스택(모델에 국한되지 않음)을 자유롭게 선택하여 수요를 처리하고 응답을 생성할 수 있습니다. 그런 다음 검증자는 채굴자의 성능을 평가합니다. DSIS 덕분에 Vision은 다른 서브넷보다 더 빠르고 효율적으로 이러한 요구에 대응할 수 있습니다.
요약
위 예시에서 볼 수 있듯이 비텐서는 높은 수준의 포용성을 보여줍니다. 채굴자의 생성 및 검증자의 검증은 오프체인에서 이루어지며, 비텐서 네트워크는 검증자의 평가만을 기반으로 각 채굴자에게 보상을 할당합니다. 채굴자 검증자 아키텍처에 맞는 AI 제품 생성의 모든 측면을 하위 네트워크로 전환할 수 있습니다.
이론적으로 서브넷 간의 경쟁은 치열해야 합니다. 어떤 서브넷이 계속해서 보상을 받으려면 고품질의 결과물을 지속적으로 생산해야 합니다. 그렇지 않으면 루트 네트워크 검증자가 서브넷의 출력이 가치가 낮다고 판단하면 해당 서브넷의 할당량이 줄어들고 결국 새로운 서브넷으로 대체될 수 있습니다.
그러나 실제로는 다음과 같은 문제가 발생합니다.
서로 비슷한 위치에 있는 서브넷으로 인한 리소스 중복 중복. 기존 32개의 서브넷 중 일부는 텍스트-이미지 변환, 텍스트 알림, 가격 예측 등과 같이 인기 있는 방향에 집중되어 있습니다.
실제 사용 사례가 없는 서브넷도 있습니다. 가격 예측 서브넷은 예후 예측 제공자로서 이론적 가치가 있을 수 있지만, 현재 예측 데이터의 성능은 최종 사용자가 사용할 수 있는 수준과는 거리가 멉니다.
"악재 뒤에 호재를 던지는" 예시입니다. 일부 최상위 검증자는 새로운 서브넷의 품질이 훨씬 더 우수하더라도 새로운 서브넷으로 마이그레이션하고 싶지 않을 수 있습니다. 그러나 재정적 지원 부족으로 인해 단기간에 충분한 배출량을 확보하지 못할 수도 있습니다. 신규 서브넷은 활성화 후 7일 동안만 보호되기 때문에 충분한 배출량을 빠르게 축적하지 못하면 탈락되어 오프라인 상태로 전환될 위험이 있습니다.
이러한 문제는 서브넷 간의 경쟁이 불충분하고 일부 검증인이 효과적인 경쟁을 위한 인센티브 역할을 하지 못한다는 점을 반영합니다.
오픈 텐서 재단 검증자(OTF)는 이를 완화하기 위해 몇 가지 임시 조치를 시행했습니다. 전체 서약의 23%(위임자 포함)를 보유한 최대 검증인인 OTF는 서브넷에 더 많은 스테이킹된 TAO를 두고 경쟁할 수 있는 길을 제공합니다. 서브넷 소유자는 매주 OTF에 요청을 제출하여 서브넷 내 스테이킹된 TAO의 비율을 조정할 수 있습니다. 이러한 요청은 "서브넷 목표 및 비트센서 생태계에 대한 기여", "서브넷 인센티브 메커니즘", "통신 프로토콜 설계"를 포함해야 합니다, "데이터 소스 및 보안", "컴퓨팅 요구사항", "로드맵"을 포함해야 OTF의 최종 결정을 용이하게 할 수 있습니다.
그러나 이 문제를 근본적으로 해결하기 위해서는 한편으로는 위의 불합리한 문제를 근본적으로 바꾸는 것을 목표로 하는 dTAO(Dynamic TAO)를 시급히 도입할 필요가 있습니다. 또는 스테이크 TAO를 대량으로 보유한 대규모 검증인이 비트센서 생태계의 장기적인 발전을 위해 '재무적 수익'이 아닌 '생태계 발전'의 관점에서 더 많이 생각하도록 요청할 수도 있습니다.
요약하자면, 저희는 비트센서 생태계가 강력한 포용성, 경쟁 환경, 효과적인 인센티브를 통해 고품질의 AI 제품을 유기적으로 생산할 수 있다고 생각합니다. 기존 서브넷의 모든 결과물이 중앙화된 제품의 결과물과 비교할 수는 없겠지만, 현재 비트센서 아키텍처는 이제 막 1년이 지났다는 점을 잊지 마세요(1번 서브넷은 2023년 4월 13일에 등록되었습니다). 중앙화된 거대 AI 플랫폼과 경쟁할 수 있는 잠재력을 가진 플랫폼이라면, 단점을 서둘러 비판하기보다는 실질적인 개선 방안을 마련하는 데 집중해야 할 것입니다. 결국, 우리 중 누구도 AI가 소수의 거대 기업에 의해 지속적으로 통제되는 것을 보고 싶어하지 않습니다.