7가지 탈중앙화 AI 프로젝트 한눈에 보기
탈중앙화 AI는 아마도 암호화폐 세계에서 가장 빠르게 성장하고 있는 분야일 것입니다.
JinseFinance저자: @ed_roman; Vernacular Blockchain에서 편집
인공지능(AI)은 최근 암호화폐 시장에서 가장 뜨겁고 유망한 분야 중 하나로 떠오르고 있습니다. 여기에는 다음이 포함됩니다:
탈중앙화된 AI 트레이닝
GPU 탈중앙화된 물리적 인프라 네트워킹
검열 없는 AI 모델 이것이 혁신일까요, 아니면 그저 과대광고일까요?
@hack_vc에서는 안개를 걷어내고 약속과 현실을 구분하기 위해 노력하고 있습니다. 이 글에서는 암호화폐와 인공지능 분야의 주요 아이디어를 분석해 보겠습니다. 실제 도전과 기회는 무엇인지 함께 살펴봅시다.
AI 온체인 트레이닝의 문제점은 트레이닝 중에 신경망을 역전파해야 하기 때문에 GPU 간의 고속 통신과 조정이 필요하다는 것인데, 이를 위해 엔비디아는 두 가지 혁신적인 기술(NV링크 및 인피니밴드)을 제공합니다. 이러한 기술은 GPU 통신 속도를 획기적으로 높일 수 있지만, 단일 데이터센터 내의 GPU 클러스터에서만 사용할 수 있습니다(50Gbps 이상의 속도).
분산형 네트워크를 도입하면 네트워크 지연 시간과 대역폭이 증가하기 때문에 속도가 현저히 느려집니다. 이는 데이터센터 내에서 Nvidia가 제공하는 고속 상호 연결에 비해 AI 트레이닝 사용 사례에 적합하지 않습니다. 또한 분산 환경의 네트워크 대역폭과 스토리지 비용도 로컬 클러스터의 SSD에 비해 훨씬 높습니다.
온체인 AI 모델 트레이닝의 또 다른 문제는 이 시장이 추론에 비해 덜 매력적이라는 것입니다. 현재 AI 대규모 언어 모델(LLM) 트레이닝에는 많은 GPU 컴퓨팅 리소스가 사용되고 있습니다. 하지만 장기적으로는 추론이 GPU의 주요 애플리케이션 시나리오가 될 것입니다. 수요를 충족하기 위해 얼마나 많은 AI 대규모 언어 모델을 학습해야 할까요? 이에 비해 얼마나 많은 고객이 이러한 모델을 사용할까요?
온체인 AI 트레이닝의 미래에 희망을 줄 수 있는 몇 가지 혁신이 이미 이 분야에서 이루어지고 있다는 점에 주목하세요.
1) InfiniBand 기반의 분산 트레이닝이 대규모로 이루어지고 있으며 NVIDIA 자체 에서도 집단 통신 라이브러리를 통해 비로컬 분산 학습을 지원하고 있습니다. 그러나 이는 아직 초기 단계에 있으며 채택 여부는 아직 지켜봐야 합니다. 물리적 거리로 인한 병목 현상이 여전히 존재하기 때문에 로컬 인피니밴드 트레이닝이 여전히 훨씬 빠릅니다.
2) 통신 동기화 횟수를 줄이는 분산형 훈련에 대한 새로운 연구가 발표되어 향후 분산형 훈련이 더욱 실용화될 가능성이 있습니다.
3) 지능형 슬라이싱 및 훈련 스케줄링은 성능 향상에 도움이 될 수 있습니다. 마찬가지로, 향후에는 분산 인프라를 위해 특별히 설계된 새로운 모델 아키텍처가 등장할 수도 있습니다(Gensyn은 이러한 분야를 연구하고 있습니다).
4) 예측 코딩 네트워크(PCN)라는 새로운 접근 방식을 통해 더 낮은 비용으로 분산 훈련을 가능하게 하려는 Neuromesh의 시도와 같은 혁신이 있습니다.
훈련의 데이터 정보 부분도 어려운 과제입니다. 모든 AI 학습 과정에는 대량의 데이터를 처리하는 과정이 포함됩니다. 일반적으로 모델은 확장성과 성능이 뛰어난 중앙 집중식 보안 데이터 스토리지 시스템에서 훈련됩니다. 이를 위해서는 테라바이트 단위의 데이터를 전송하고 처리해야 하며, 이는 일회성으로 끝나는 것이 아닙니다. 데이터는 노이즈가 많고 오류가 있는 경우가 많기 때문에 모델을 학습시키기 전에 데이터를 정리하고 사용 가능한 형식으로 변환해야 합니다. 이 단계에는 정규화, 필터링, 결측치 처리 등의 반복적인 작업이 포함됩니다. 분산된 환경에서는 이러한 작업이 심각한 문제를 야기합니다.
학습의 데이터 정보 부분도 반복적이어서 Web3와 잘 호환되지 않습니다. OpenAI는 현재 위치에 도달하기까지 수천 번의 반복이 필요했습니다. 현재 모델이 기대에 미치지 못하면 전문가가 데이터 수집 또는 모델 훈련 단계로 돌아가 결과를 개선하는 반복적인 훈련 프로세스를 거칩니다. 이제 Web3에서 최상의 프레임워크와 도구에 쉽게 액세스할 수 없는 분산 환경에서 이 프로세스를 수행한다고 상상해 보세요.
유망한 기술 중 하나는 온체인 데이터 스토리지와 데이터 가용성 인프라를 제공하는 0g.ai(Hack VC의 지원을 받고 있음)입니다. 이들은 더 빠른 아키텍처와 대량의 데이터를 온체인에 저장할 수 있는 능력을 갖추고 있습니다.
암호와 AI를 결합할 때 어려운 점 중 하나는 추론 작업을 수행하는 중앙화된 단일 주체를 완전히 신뢰할 수 없기 때문에 AI 추론의 정확성을 검증하는 것입니다. 노드의 오작동 가능성이 있기 때문입니다. Web2.0의 AI에서는 탈중앙화된 합의 시스템이 없기 때문에 이러한 문제가 존재하지 않습니다.
한 가지 해결책은 여러 노드가 동일한 AI 추론 연산을 반복하여 신뢰 없는 환경에서 작동하고 단일 장애 지점을 피하는 중복 계산입니다.
이 접근 방식의 문제점은 우리가 하이엔드 AI 칩이 극도로 부족한 세상에 살고 있다는 것입니다. 하이엔드 NVIDIA 칩의 대기 기간은 수년이며, 이는 가격 상승으로 이어집니다. 또한 여러 노드에서 AI 추론을 여러 번 반복해야 하는 경우 비용이 크게 증가합니다. 많은 프로젝트에서 이는 실현 불가능한 일입니다.
Web3 고객만을 위한 고유한 AI 사용 사례가 있어야 한다는 제안이 있었습니다.
현재 이 시장은 아직 신흥 시장이며 사용 사례가 계속 발굴되고 있습니다. 몇 가지 과제는 다음과 같습니다.
웹3 네이티브 사용 사례는 시장 수요가 아직 초기 단계이므로 AI 트랜잭션이 더 적게 필요합니다.
웹3 고객은 웹2 고객에 비해 훨씬 적기 때문에 고객 수가 적고 시장이 덜 세분화되어 있습니다.
고객 자체가 자본이 적은 스타트업이기 때문에 안정성이 떨어지며, 시간이 지나면 폐업할 수도 있습니다. Web3 고객을 대상으로 하는 AI 서비스 제공업체는 폐업한 고객을 대체하기 위해 시간이 지남에 따라 일부 고객을 다시 확보해야 하므로 비즈니스 확장이 더 어려워질 수 있습니다.
장기적으로, 특히 AI 에이전트가 더욱 보편화됨에 따라 Web3 네이티브 AI 사용 사례에 대해 매우 낙관적으로 전망하고 있습니다. 모든 웹3.0 사용자가 여러 명의 AI 에이전트를 통해 도움을 받는 미래를 상상하고 있습니다. 이 분야의 초기 선두주자로는 웹2.0과 웹3.0 고객 모두에게 서비스를 제공할 수 있는 결합 가능한 AI 에이전트 플랫폼을 구축하고 있는 Theoriq.ai가 있습니다(Hack VC의 지원을 받고 있음).
>데이터센터 GPU가 아닌 소비자 등급 GPU에 의존하는 탈중앙화 AI 컴퓨팅 네트워크가 다수 있습니다. 소비자 등급 GPU는 보다 유연한 지연 시간, 처리량, 안정성이 요구되는 로우엔드 AI 추론 작업이나 소비자 사용 사례에 적합합니다. 그러나 고객이 가정용 컴퓨터보다 네트워크의 안정성이 더 높기를 기대하며 복잡한 추론 작업에 일반적으로 더 높은 수준의 GPU가 필요한 심각한 엔터프라이즈 사용 사례(즉, 시장 점유율이 높은 사용 사례)의 경우, 데이터센터가 이러한 보다 가치 있는 고객 사용 사례에 더 적합합니다.
소비자용 GPU는 데모용 또는 낮은 안정성을 감내할 수 있는 개인 및 스타트업에 적합하다고 보고 있다는 점에 유의하는 것이 중요합니다. 그러나 이러한 고객은 근본적으로 가치가 낮으므로 장기적으로는 웹2.0 기업을 위한 탈중앙화 물리적 인프라 네트워크(DePIN)가 더 가치가 있을 것으로 생각합니다. 그 결과, 잘 알려진 GPU DePIN 프로젝트는 일반적으로 초기에 주로 소비자용 하드웨어를 사용하던 것에서 현재는 A100/H100 및 클러스터 수준의 가용성을 갖추기 위해 발전해 왔습니다.
이제는 암호화폐와 AI가 상당한 가치를 더할 수 있는 사용 사례에 대해 이야기해 보겠습니다.
McKinsey는 분석 대상 63개 사용 사례에 대해 생성형 AI가 연간 2조 6천억 달러에서 4조 달러의 가치를 추가할 수 있다고 추산합니다. -- 이는 2021년 영국의 총 GDP인 3조 1,000억 달러와 비교하면 엄청난 규모입니다. 이는 모든 AI의 영향력을 15~40% 증가시킬 수 있는 수치입니다. 현재 다른 업무에 사용되는 소프트웨어에 제너레이티브 AI를 포함하면 이 추정치는 약 두 배로 늘어날 것입니다.
중요:
이 추정치에 따르면, 이는 전 세계 전체 AI(생성 AI뿐만 아니라) 시장 가치는 수십 조 달러에 달할 수 있습니다.
이에 비해 현재 모든 암호화폐(비트코인과 모든 코인을 포함)의 총 가치는 약 2조 7천억 달러에 불과합니다.
현실적으로 생각해 봅시다: 단기적으로 AI를 필요로 하는 대다수의 고객은 웹2 고객일 것이며, 실제로 AI를 필요로 하는 웹3 고객은 2조 7천억 달러 시장의 일부에 불과합니다(BTC가 시장 점유율의 절반을 차지하고 있다는 점을 고려하면 BTC 자체는 AI를 필요로 하거나 사용하지 않습니다. AI를 필요로 하거나 사용하지 않는다는 점을 고려하면).
Web3의 AI 사용 사례는 이제 막 시작 단계에 있으며, 그 시장이 얼마나 커질지는 확실하지 않습니다. 하지만 한 가지 직관적으로 확실한 것은 당분간은 웹2.0 시장의 일부가 될 것이라는 점입니다. 웹3.0 AI의 미래는 여전히 밝다고 생각하지만, 이는 웹3.0 AI의 가장 일반적인 애플리케이션이 여전히 웹2.0 고객에게 서비스를 제공하고 있다는 것을 의미합니다.
웹3 AI의 혜택을 받을 수 있는 웹2.0 고객의 예는 다음과 같습니다.
기반부터 구축하여 사용하고 있는 수직 산업 소프트웨어 회사 버티컬 분야의 AI 중심 소프트웨어 기업(예: Cedar.ai 또는 Observe.ai)
자체 목적에 맞게 모델을 미세 조정하는 대기업(예: Netflix)
빠르게 성장하는 AI 제공업체(예: Anthropic)
기존 제품에 AI 기능을 추가하는 소프트웨어 회사(예: Canva)
이러한 고객은 일반적으로 규모가 크고 가치가 높기 때문에 비교적 안정적인 고객 기반입니다. 이들은 조만간 폐업할 가능성이 낮으며, AI 서비스의 잠재적 고객층이 매우 큰 고객층입니다. Web2 고객에게 서비스를 제공하는 Web3 AI 서비스는 이러한 안정적인 고객 기반으로부터 혜택을 받을 수 있습니다.
그렇다면 왜 Web2 고객이 Web3 기술 스택을 사용하고자 할까요? 이 글의 나머지 부분에서 그 이유를 설명합니다.
GPU DePIN은 활용도가 낮은 GPU를 풀링합니다. 컴퓨팅 성능(이 중 가장 안정적인 것은 데이터 센터에서 제공됨)을 풀링하고 이러한 리소스를 AI 추론에 사용할 수 있도록 합니다. 간단히 말해 'GPU의 에어비앤비'라고 생각하면 됩니다(즉, 활용도가 낮은 자산의 공동 소비).
우리가 GPU DePIN에 기대하는 이유는 위에서 설명한 바와 같이 주로 NVIDIA 칩 부족으로 인해 현재 AI 추론에 사용할 수 있는 낭비되는 GPU 사이클이 많기 때문입니다. 이러한 하드웨어 소유자는 이미 매몰 비용이 발생했으며 현재 장치를 제대로 활용하지 못하고 있으므로 이러한 GPU 주기 중 일부는 하드웨어 소유자에게 사실상 '횡재'가 되어 현재보다 더 낮은 비용으로 사용할 수 있습니다.
구체적인 예는 다음과 같습니다.
1) AWS 머신: 현재 AWS에서 H100을 임대하려면 시장이 타이트하기 때문에 최소 1년의 임대를 약정해야 할 것입니다. 이는 주 7일, 365일 GPU를 사용할 가능성이 낮기 때문에 낭비로 이어질 수 있습니다.
2) Filecoin 채굴 하드웨어: Filecoin 네트워크에는 보조금이 많이 지급되지만 실제 수요는 많지 않습니다. 안타깝게도 파일코인은 실제 제품 시장에 적합한 제품을 찾지 못했기 때문에 파일코인 채굴자들은 폐업 위기에 처해 있습니다. 이러한 채굴기에는 GPU가 장착되어 있으며, 저사양 AI 추론 작업으로 용도를 변경할 수 있습니다.
3) 이더리움 채굴 하드웨어: 이더리움이 작업증명(PoW)에서 지분증명(PoS)으로 전환하면서, AI 추론에 용도를 변경할 수 있는 대량의 하드웨어가 즉시 사용 가능하게 되었습니다.
GPU DePIN 시장은 여러 플레이어가 제품을 제공하면서 경쟁이 치열합니다. 예를 들면 Aethir, Exabits, 그리고 아카시 등이 있습니다. Hack VC는 io.net을 지원하기로 결정했으며, 다른 GPU DePIN과의 파트너십을 통해 공급을 풀링하여 현재 시장에서 가장 많은 GPU 공급을 지원하고 있습니다.
모든 GPU 하드웨어가 AI 추론에 적합한 것은 아니라는 점에 유의하는 것이 중요합니다. 이 분야에서 몇 가지 흥미로운 혁신이 있었지만, 구형 GPU에는 대규모 언어 모델(LLM)을 처리하기에 충분한 GPU 메모리가 없다는 것이 한 가지 분명한 이유입니다. 예를 들어 엑사비츠는 활성 뉴런은 GPU 메모리에, 비활성 뉴런은 CPU 메모리에 로드하는 기술을 개발했습니다. 이 기술은 어떤 뉴런을 활성화/비활성화해야 하는지 예측합니다. 이를 통해 GPU 메모리가 제한되어 있는 경우에도 로우엔드 GPU를 사용하여 AI 워크로드를 처리할 수 있습니다. 이는 실제로 AI 추론에서 로우엔드 GPU의 유용성을 높여줍니다.
또한 Web3 AI DePIN은 싱글 사인온(SSO), SOC 2 준수, 서비스 수준 계약(SLA)과 같은 엔터프라이즈급 서비스를 제공하기 위해 시간이 지남에 따라 제품을 개선해야 할 것입니다. 이는 현재 웹2.0 고객들이 이용하는 클라우드 서비스와 경쟁하게 될 것입니다.
AI 검열에 대한 많은 논의가 있어왔습니다. 예를 들어, 터키는 한때 OpenAI를 일시적으로 금지한 적이 있습니다(이후 OpenAI가 규정 준수를 개선한 후 금지 조치를 해제했습니다). 국가가 경쟁력을 유지하기 위해서는 AI를 받아들여야 하기 때문에 이러한 국가 차원의 검열은 근본적으로 우려할 만한 일이라고 생각하지 않습니다.
더 흥미로운 점은 OpenAI가 스스로 검열한다는 점입니다. 예를 들어, OpenAI는 NSFW(직장에서 보기에 적합하지 않은) 콘텐츠를 처리하거나 다음 대통령 선거 결과를 예측하지 않습니다. 우리는 OpenAI가 정치적 이유로 다루고 싶지 않은 AI 애플리케이션에 대한 흥미롭고 큰 시장이 있다고 생각합니다.
오픈소스는 주주나 이사회에 종속되지 않기 때문에 이 문제를 해결할 수 있는 좋은 방법입니다. 한 가지 예로 사용자 개인정보를 보호하고 검열되지 않는 방식으로 운영할 것을 약속하는 Venice.ai가 있습니다. 물론 핵심은 이를 가능하게 하는 오픈 소스 특성입니다. web3 AI는 추론을 위해 저비용 GPU 클러스터에서 이러한 오픈 소스 소프트웨어(OSS) 모델을 실행함으로써 이를 효과적으로 향상시킬 수 있습니다. 이러한 이유로, 저희는 OSS + Web3가 검열되지 않는 AI의 길을 열 수 있는 이상적인 조합이라고 생각합니다.
많은 대기업은 기업 내부 데이터에 대한 개인정보 보호 우려를 가지고 있습니다. 이러한 고객의 경우 이러한 데이터를 처리하는 중앙 집중식 타사(예: OpenAI)를 신뢰하기 어렵습니다.
이러한 기업들에게 웹3를 사용하는 것은 내부 데이터가 갑자기 탈중앙화된 네트워크에 공개되는 것이기 때문에 더욱 두려운 일로 보일 수 있습니다. 하지만 AI를 위한 새로운 기술인 슈퍼 프로토콜과 같은 신뢰할 수 있는 실행 환경(TEE)
Fhenix.io(Hack VC에서 관리)와 같은 신뢰된 실행 환경(TEE) 등 개인정보 보호 강화 기술에서 몇 가지 혁신이 이루어지고 있습니다. VC가 관리하는 펀드 포트폴리오 회사)와 같은 완전 동형 암호화(FHE) 또는 Inco Network(둘 다 Zama.ai에서 제공) 및 Bagel의 PPML
이러한 기술은 계속 진화하고 있으며 곧 출시될 제로 지식(ZK) 및 FHE와 함께 더욱 발전할 것입니다. ASIC 및 성능은 계속 개선되고 있습니다. 하지만 장기적인 목표는 모델을 미세 조정하면서 기업 데이터를 보호하는 것입니다. 이러한 프로토콜이 등장함에 따라 웹3은 프라이버시를 보호하는 AI 컴퓨팅을 위한 더욱 매력적인 장이 될 수 있습니다.
지난 수십 년 동안 오픈 소스 소프트웨어(OSS)는 독점 소프트웨어의 시장 점유율을 잠식해 왔습니다. LLM은 오픈 소스 소프트웨어에 점점 더 파괴적인 영향을 미치고 있는 고급 독점 소프트웨어의 한 형태라고 생각합니다. 주목할 만한 도전자로는 Llama, RWKV, Mistral.ai 등이 있으며, 이 목록은 시간이 지남에 따라 더욱 늘어날 것입니다(보다 포괄적인 목록은 Openrouter.ai에서 확인할 수 있습니다). 오픈 소스 모델 기반의 웹3.0 AI를 활용하면 이러한 새로운 혁신의 이점을 최대한 활용할 수 있습니다.
오픈소스 글로벌 개발 인력이 암호화 인센티브와 결합하면 오픈소스 모델과 그 위에 구축된 에이전트 및 프레임워크의 빠른 혁신을 이끌 수 있다고 믿습니다. AI 에이전트 프로토콜의 예로는 Theoriq이 있습니다. Theoriq은 오픈 소스 모델을 활용하여 조합 가능한 상호 연결된 AI 에이전트 네트워크를 생성하고, 이를 함께 조립하여 더 높은 수준의 AI 솔루션을 만들 수 있습니다.
우리가 이렇게 생각하는 이유는 과거의 경험 때문인데, 대부분의 '개발자 소프트웨어'는 시간이 지나면서 오픈 소스 소프트웨어에 의해 추월당했습니다. 독점 소프트웨어 회사였던 Microsoft가 현재 가장 많은 기여를 하는 Github 회사가 된 데에는 그만한 이유가 있습니다. 데이터브릭스, PostGresSQL, 몽고DB 등이 독점 데이터베이스를 파괴하는 과정을 보면 업계 전체가 오픈소스 소프트웨어에 의해 파괴된 사례라고 볼 수 있을 정도로 그 선례가 상당히 강합니다.
그러나 한 가지 작은 문제가 있습니다. OSS LLM의 까다로운 문제 중 하나는 OpenAI가 Reddit 및 New York Times와 같은 조직과 유료 데이터 라이선스 계약을 체결하기 시작했다는 것입니다. 이러한 추세가 계속되면 데이터 액세스에 대한 경제적 장벽으로 인해 OSS LLM의 경쟁이 점점 더 어려워질 수 있습니다. NVIDIA는 안전한 데이터 공유를 위한 향상된 도구로 기밀 컴퓨팅을 사용할 수 있습니다. 시간이 지나면 어떻게 될지 알 수 있을 것입니다.
검증은 웹3.0의 AI 추론에서 어려운 과제입니다. 검증자가 결과를 스푸핑하여 수수료를 챙길 수 있기 때문에 추론의 검증은 중요한 척도입니다. AI 추론은 아직 초기 단계이므로 이러한 행동에 대한 인센티브를 약화시키는 조치를 취하지 않는 한 이러한 속임수는 불가피하다는 점에 유의해야 합니다.
표준 웹3 방식은 여러 검증자가 동일한 연산을 반복하여 결과를 비교하는 것입니다. 그러나 앞서 언급했듯이 현재 하이엔드 Nvidia 칩의 부족으로 인해 AI 추론은 매우 비용이 많이 듭니다. 웹3가 활용도가 낮은 GPU DePIN을 통해 더 저렴한 추론을 제공할 수 있다는 점을 고려할 때, 중복 계산은 웹3의 가치 제안을 심각하게 훼손할 수 있습니다.
더 유망한 해결책은 오프체인 AI 추론 연산에 대해 영지식 증명을 수행하는 것입니다. 이 경우, 모델이 올바르게 학습되었는지 또는 추론이 올바르게 작동하는지 확인하기 위해 간결한 영지식 증명을 검증할 수 있습니다(zkML이라고 함). 이러한 솔루션의 예로는 Modulus Labs와 ZKonduit이 있으며, 영지식 연산에 상당한 계산 리소스가 필요하기 때문에 이러한 솔루션의 성능은 아직 초기 단계에 머물러 있습니다. 그러나 가까운 미래에 영지식 하드웨어 ASIC이 도입되면 이러한 성능은 개선될 수 있습니다.
더 유망한 아이디어는 AI 추론에 대한 '낙관적' 샘플링 기반 접근 방식입니다. 이러한 모델에서는 검증자가 생성한 결과의 일부만 검증하면 되지만, 부정 행위가 적발된 검증자에게 불이익을 줄 수 있을 만큼 경제적 비용을 높게 설정하여 강력한 경제적 금지 효과를 창출할 수 있습니다. 이렇게 하면 중복 계산을 줄일 수 있습니다(예: Hyperbolic의 "샘플링 증명" 논문 참조).
또 다른 유망한 아이디어는 베이글 네트워크에서 제안한 것과 같이 워터마킹과 핑거프린팅을 사용하는 솔루션입니다. 이는 아마존 알렉사가 수백만 대의 디바이스에서 AI 모델의 품질 보증을 위해 제공하는 메커니즘과 유사합니다.
웹3이 AI에 제공하는 다음 기회는 비용 절감의 민주화입니다. 지금까지 io.net과 같은 디핀을 통해 GPU 비용을 절감할 수 있는 방법에 대해 알아보았습니다. 하지만 web3는 중앙화된 웹2.0 AI 서비스(예: 현재 연간 10억 달러 이상의 매출을 올리고 있는 OpenAI)의 수익 마진을 절감할 수 있는 기회도 제공합니다. 이러한 비용 절감은 독점 모델이 아닌 오픈 소스 소프트웨어(OSS) 모델을 사용함으로써 이루어지며, 모델 제작자가 수익을 목적으로 하지 않기 때문에 추가적인 비용 절감을 실현할 수 있습니다.
대부분의 OSS 모델은 항상 완전 무료이므로 고객에게 최고의 경제성을 제공합니다. 그러나 이러한 실현 방법을 시도하는 오픈 소스 소프트웨어 모델도 있을 수 있습니다. 허깅 페이스에 있는 모델 중 4%만이 보조금을 지원할 수 있는 예산이 있는 회사에서 트레이닝을 받았다는 점을 고려하세요(여기를 참조하세요). 나머지 96%의 모델은 커뮤니티에서 트레이닝을 받습니다. 허깅 페이스 모델 커뮤니티의 96%는 실제 비용(컴퓨팅 비용과 데이터 비용 모두)에 직면해 있습니다. 따라서 이러한 모델은 어떤 식으로든 현실화되어야 합니다.
이 오픈 소스 소프트웨어 모델을 실현하기 위한 여러 가지 제안이 있습니다. 가장 흥미로운 것 중 하나는 모델 자체를 토큰화하여 토큰의 일부를 팀에 남겨두고 향후 모델 수익의 일부를 토큰 보유자에게 분배하는 "초기 모델 오퍼링"(IMO)이라는 개념인데, 여기에는 분명히 몇 가지 법적 및 규제적 장벽이 존재하지만, 이는 매우 흥미로운 제안입니다.
다른 오픈 소스 소프트웨어 모델은 사용량에 따라 현금화를 시도합니다. 이것이 현실화되면 오픈소스 소프트웨어 모델이 점점 더 웹2.0 수익 창출 모델과 비슷해지기 시작할 수 있습니다. 그러나 현실적으로 시장은 양분화될 것이며 이러한 모델 중 일부는 완전히 무료가 될 것입니다.
오픈 소스 소프트웨어 모델을 선택했다면 그 위에 결합 가능한 계층 구조를 만들 수 있습니다. 예를 들어, AI 추론에는 Ritual.net을, 컴포저블 및 자율 온체인 AI 에이전트의 초기 리더로는 Theoriq.ai를 사용할 수 있습니다(둘 다 Hack VC의 지원을 받음).
AI가 직면한 가장 큰 과제 중 하나는 학습 모델에 적합한 올바른 데이터를 확보하는 것입니다. 앞서 탈중앙화 AI 학습에는 몇 가지 어려움이 있다고 언급했습니다. 그렇다면 탈중앙화된 웹을 사용하여 데이터를 수집하고, 이를 다른 곳, 심지어 기존 웹2.0 플랫폼에서도 학습에 사용할 수 있다면 어떨까요?
이것이 바로 개인이 자신의 컴퓨터의 유휴 처리 능력을 제공하여 AI 모델을 위한 데이터를 확보하는 분산형 '데이터 크롤링' 네트워크인 Grass와 같은 스타트업이 (Hack VC의 지원을 받아) 하고 있는 일입니다. Grass는 개인이 자신의 컴퓨터의 유휴 처리 능력을 제공하여 AI 모델 학습용 데이터를 확보하는 탈중앙화된 '데이터 크롤링' 네트워크입니다. 이론적으로 대규모 애플리케이션에서 이러한 종류의 데이터 수집은 인센티브가 부여된 대규모 노드 네트워크의 계산 능력으로 인해 어떤 회사의 사내 노력보다 우수할 수 있습니다. 여기에는 더 많은 데이터를 수집하는 것뿐만 아니라 더 자주 데이터를 수집하여 더 관련성 있고 최신 상태로 만드는 것도 포함됩니다. 이러한 데이터 크롤링 노드는 본질적으로 분산되어 있고 단일 IP 주소에 속하지 않기 때문에, 이 분산된 데이터 크롤러 군단을 막는 것은 사실상 불가능합니다. 또한, 크롤링된 데이터를 정리하고 정규화하여 유용한 데이터로 만들 수 있는 인간 네트워크를 보유하고 있습니다.
데이터를 가져온 후에는 온체인 저장 위치와 해당 데이터를 사용해 생성된 LLM(대규모 언어 모델)도 필요합니다. 이 점에서 0g.AI는 초기 리더입니다. 이 솔루션은 AI에 최적화된 고성능 웹 3.0 스토리지 솔루션으로, AWS보다 훨씬 저렴하며(웹 3.0 AI의 또 다른 경제적 성공 사례), 티어 2, AI 등을 위한 데이터 가용성 인프라 역할도 합니다.
미래에는 웹3.0 AI에서 데이터의 역할이 바뀔 수 있다는 점에 유의해야 합니다. 현재 LLM의 현주소는 데이터를 사용하여 모델을 사전 학습하고 시간이 지남에 따라 더 많은 데이터를 사용하여 모델을 개선하는 것입니다. 그러나 인터넷의 데이터가 실시간으로 변화함에 따라 이러한 모델은 지속적으로 약간씩 최신이 아니며, 그 결과 LLM 추론에 대한 응답이 약간 부정확합니다.
향후 발전할 수 있는 새로운 패러다임은 '실시간' 데이터입니다. LLM에 추론을 요청할 때 인터넷에서 실시간으로 수집된 데이터를 주입하여 데이터를 사용할 수 있다는 개념입니다. 이러한 방식으로 LLM은 사용 가능한 가장 최신의 데이터를 사용하게 되며, Grass도 이를 위해 노력하고 있습니다.
이 분석이 웹3.0 AI의 가능성과 현실에 대해 생각하는 데 도움이 되었기를 바랍니다. 이는 논의의 시작점일 뿐이며 이 분야는 빠르게 변화하고 있으므로 계속해서 함께 학습하고 구축해 나가고자 하는 만큼 자유롭게 의견을 개진해 주시기 바랍니다.
탈중앙화 AI는 아마도 암호화폐 세계에서 가장 빠르게 성장하고 있는 분야일 것입니다.
JinseFinance블록체인과 머신러닝은 분명 공통점이 많습니다. 하나는 신뢰를 구축하는 기술이고, 다른 하나는 신뢰를 절실히 필요로 하는 기술입니다.
JinseFinance비판적으로 사고하는 능력을 일깨우고 감정의 간섭을 통제하는 것은 암호화폐 세계에서 꾸준히 전진하는 데 필요한 도구이며, 그 이상으로 인류가 인공지능의 도전에 맞서 싸울 수 있는 가장 강력한 무기입니다.
JinseFinance혼돈의 세상에서 음악은 영혼의 안식처입니다. 음악은 감정의 분출구이자 영혼을 진정시키는 매개체입니다. 음악의 선율 속에서 우리는 공감을 발견하고 말로 표현할 수 없는 감정의 깊이를 만집니다.
JinseFinance교육에 AI를 적용하는 것은 기회와 도전을 동시에 가져옵니다. 개인 맞춤형 학습을 제공하더라도 학생의 개인 정보 보호와 데이터 보안에 대한 신중한 고려가 필수적입니다. 교육 분야에서 AI의 이점을 책임감 있고 윤리적으로 활용하기 위해서는 학부모의 참여와 함께 연방 및 주 정부의 협업이 중요합니다.
Cheng Yuan바이두, 샤오미, 콰이쇼우 등 중국의 거대 기술 기업들은 미국과의 AI 협업을 수용하면서 경제 문제를 해결해 나가고 있습니다. 도전과 발전 사이의 미묘한 춤은 글로벌 혁신의 미래에 대한 질문을 불러일으킵니다.
BerniceAI의 장점을 활용하는 것과 잠재적인 과제를 해결하는 것 사이의 균형을 맞추는 것은 이 진화하는 역학 관계의 핵심적인 측면입니다.
Catherine암호화폐 거래소는 비용 절감 조치의 일환으로 직원을 해고하고 있습니다.
Beincrypto하룻밤 사이에 멀티체인 DEX Transit Swap에서 2,100만 달러가 인출되었습니다.
OthersSnoop과 디지털 멀티미디어 아티스트 Coldie와의 첫 번째 NFT 협업인 "Decentralized Dogg"가 오늘 SuperRare에서 출시되었습니다.
Cointelegraph