클라우드 컴퓨팅 파워의 부활 - AI의 이름으로
패션은 주기적이며, 웹 3.0도 마찬가지입니다.
인공지능 퍼블릭 체인으로 '돌아온' 솔라나가 창립자 트랜스포머의 공동 저자 자격으로 엔비디아의 GTC 컨퍼런스에 참석하여 가죽 옷을 입은 올드 옐로우와 제너레이티브 AI의 미래에 대해 이야기를 나눴습니다. io.net, 비텐서, 렌더 네트워크의 본거지인 솔라나는 AI 컨셉 체인으로 성공적으로 변신했으며, 아카시, 가이민, 젠신 및 기타 GPU 컴퓨팅 관련 신생 기업들도 참여하고 있습니다.
코인의 가격 상승과 함께 몇 가지 흥미로운 사실을 발견할 수 있습니다:
< strong>더 많은 컴퓨팅 파워가 더 효과적인 컴퓨팅과 같고 CPU, 스토리지 및 GPU가 서로 피기백하는 탈중앙화 플랫폼에 GPU 컴퓨팅 파워 경쟁이 도래합니다.
클라우드에서 탈중앙화로 전환되는 컴퓨팅 패러다임의 배경은 다음과 같습니다.
클라우드에서 탈중앙화로 컴퓨팅 패러다임이 전환되는 가운데, 추론에 대한 AI 훈련 수요의 변화 뒤에 온체인 모델은 더 이상 공허한 말이 아닙니다.
기본 소프트웨어 및 하드웨어 구성과 운영 로직의 인터넷 아키텍처는 근본적으로 바뀌지 않았으며, 분산화된 연산 계층이 네트워크의 역할을 더 자극하는 것으로 간주합니다.
우선, 클라우드 컴퓨팅 파워의 웹3 세계는 클라우드 마이닝 시대에 탄생한 것으로, 판매용 파워의 마이닝 머신을 말하며, 사용자가 마이너에 막대한 비용을 지출할 필요가 없지만 파워 제조업체는 종종 '과잉 판매'를 하고 있습니다! 그러나 파워 공급업체는 초과 수익을 위해 100대의 채굴기를 105명에게 판매하는 등 '과잉 판매'를 하는 경우가 많으며, 이는 궁극적으로 사기에 해당합니다.
이 글에서 클라우드 컴퓨팅 파워는 특히 GPU 기반 클라우드 공급업체의 컴퓨팅 리소스를 의미하며, 여기서 문제는 탈중앙화 컴퓨팅 플랫폼이 클라우드 공급업체의 앞잡이인지 아니면 다음 버전의 업데이트인지 여부입니다.
기존 클라우드 벤더와 블록체인의 결합은 우리가 생각했던 것보다 더 깊으며, 예를 들어 기본적으로 AWS, 알리 클라우드, 화웨이 클라우드를 중심으로 퍼블릭 체인 노드, 개발 및 일일 스토리지를 수행하여 물리적 하드웨어에 비싼 투자를 구매할 필요가 없지만 네트워크 케이블을 뽑는 극단적인 경우 발생하는 문제를 무시할 수 없습니다. 퍼블릭 체인이 다운되어 탈중앙화 정신에 심각한 위반이 될 수 있습니다.
반면, 탈중앙화 연산 플랫폼은 네트워크 견고성을 유지하기 위해 '서버룸'을 직접 구축하거나 IO와 같은 인센티브 네트워크를 직접 구축합니다. NET의 저장용 FIL 토큰과 같이 GPU 수를 에어드랍하는 전략은 사용량이 아니라 토큰 권한 부여에 관한 것이며, 실제로 이를 ML 트레이닝, 추론, 그래픽 렌더링 등에 사용하는 대기업, 개인 또는 학계가 거의 없다는 증거는 상당한 리소스 낭비를 초래할 수 있다는 것을 보여줍니다.
높은 코인 가격과 FOMO 정서에 직면했을 때만 탈중앙화 산술이 클라우드 산술 사기라는 모든 비난이 사라졌습니다.
<그림>
두 가지 유형의 클라우드 컴퓨팅 성능, 같은 이름, 같은 작업? 추론과 FLOPS, GPU 컴퓨팅 성능을 정량화
AI 모델의 계산 능력 요구 사항은 학습에서 추론으로 진화하고 있습니다.
오픈AI의 소라를 예로 들면, 이 역시 트랜스포머 기술을 기반으로 하지만 파라미터 수는 GPT-4의 수조 개에 비해 1000억 개 미만이며, 리쿤 양은 30억 개에 불과해 훈련 비용이 더 낮다고 말했습니다. 파라미터 수가 적고 그에 비례해 필요한 연산 자원이 감소하기 때문에 이 또한 매우 이해할 수 있는 부분입니다.
그러나 반면에 소라는 지시에 따라 특정 영상을 생성하는 능력으로 이해할 수 있는 더 강력한 '추론' 기능이 필요할 수 있습니다. 상대적으로 단순하고, 기존 콘텐츠를 기반으로 한 법칙의 요약, 두뇌가없는 컴퓨팅 성능 더미, 기적에서 격렬하게 벗어난 것으로 이해할 수 있습니다.
이전 단계에서는 AI 컴퓨팅 파워는 주로 훈련 수준, 추론 능력의 작은 부분, 기본적으로 NVIDIA 모든 종류의 제품 라운드에 의해 사용되지만 도입 후 Groq LPU (언어 처리 장치)에서는 더 나은 추론 능력이 변경되기 시작했습니다. 그러나 Groq LPU (언어 처리 장치)가 나온 후 상황이 바뀌기 시작했고, 대형 모델의 얇아짐과 정확도 향상, 논리에 대해 이야기 할 수있는 두뇌를 가진 더 나은 추론 능력이 서서히 주류가되고 있습니다.
또한 GPU의 분류를 추가하고 싶은데, 종종 게임 냄새가 나는 것이 AI를 구하는 것이라고 보는데, 이는 게임 시장에서 고성능 GPU에 대한 강력한 수요가 게임과 AI의 연금술에 사용되는 4090 그래픽 카드와 같은 연구 개발 비용을 충당하기 때문에 이해가 되지만 천천히 게임 카드와 연산 카드가 점차 더 강력해질 것이라는 점에 유의하는 것이 중요합니다. 게이밍 카드와 연산 카드는 점차적으로 분리될 것이며, 이는 비트코인 채굴기가 개인용 컴퓨터에서 전문 채굴기로 발전하는 과정과 유사하며, 사용되는 칩은 CPU, GPU, FPGA, ASIC의 순서를 따릅니다.
<그림>
LLM 전용 카드 개발. ">LLM 전용 카드 개발 중 ----AI 기술, 특히 LLM 경로의 성숙과 발전에 따라 더 많은 TPU, DPU, LPU에서 유사한 시도가 점점 더 많아질 것이며, 물론 현재 주력 제품은 여전히 NVIDIA의 GPU입니다. 아래의 모든 논의는 GPU를 기준으로 한 것이며, LPU는 GPU를 보완하는 역할에 가깝기 때문에 완전히 대체하기까지는 시간이 걸릴 것입니다.
탈중앙화된 컴퓨팅 성능을 향한 경쟁은 GPU 경쟁이 아니라 새로운 수익 모델을 구축하려는 노력의 일환입니다.
탈중앙화 컴퓨팅은 GPU 경쟁이 아니라 새로운 수익 모델을 구축하려는 시도입니다.
세계에서 GPU를 본 것은 이번이 처음이지만, GPU를 본 것은 세계 최초입니다.
소비자용 RTX 4090부터 엔터프라이즈용 A100/H100에 이르기까지 절대적인 독점으로 인해 클라우드 공급업체들이 GPU를 사재기하고 있습니다. 하지만 구글, 메타, 테슬라, OpenAI와 같은 AI 기업들이 모두 자체 칩을 만들거나 만들 계획을 세우고 있고, 국내 기업들도 이미 화웨이와 같은 자체 개발 공급업체로 눈을 돌리고 있기 때문에 GPU 트랙은 여전히 엄청나게 혼잡합니다.
전통적인 클라우드 벤더의 경우 판매하는 것은 사실 연산과 저장 공간이기 때문에 AI 기업만큼 자체 칩을 사용해야 할 절박함이 없지만, 탈중앙화 연산 프로젝트의 경우 현재는 전반부, 즉 전통적인 클라우드 벤더와 연산 잡기 사업에 있어 저렴하고 쉽게 구할 수 있다는 것에 집중하고 있지만 앞으로는 비트코인 채굴처럼 더 많은 이야기를 할 수 있을 것으로 예상됩니다. 비트코인 채굴, 웹3 AI 칩의 등장 가능성은 희박합니다.
또한 이더가 지분 증명으로 전환한 이후 암호화폐 영역에서 전용 하드웨어가 점점 줄어들고 있고 사가폰, ZK 하드웨어 가속, 디핀 시장이 너무 작기 때문에 탈중앙화 산술이 웹3 기능을 갖춘 전용 AI 카드의 길을 모색할 수 있기를 기대합니다.
탈중앙화 산술은 클라우드의 다음 단계 또는 추가입니다.
GPU 컴퓨팅 성능은 종종 애플리케이션 병렬 처리와 같은 GPU 사양이나 최적화와 관계없이 컴퓨팅 속도에 가장 일반적으로 사용되는 지표인 FLOPS(초당 부동 소수점 연산)와 비교됩니다. GPU 사양이나 애플리케이션 병렬 처리와 같은 최적화 조치와 관계없이 컴퓨팅 속도에 가장 일반적으로 사용되는 지표입니다.
로컬 컴퓨팅에서 클라우드에 이르기까지 약 반세기, 컴퓨터의 탄생부터 분산이라는 개념이 존재해 왔으며, 분산과 산술의 결합인 LLM의 추진에서 분산과 산술의 개념이 더 이상 이전처럼 모호하지 않기 때문에 기존의 분산 산술 프로젝트, 유일한 두 가지 차원의 검토를 가능한 한 많이 요약하겠습니다:
The LLM은 컴퓨팅 속도를 나타내는 가장 일반적인 지표입니다. p>무어의 법칙에 따르면 새로운 GPU일수록 연산 능력이 강하고, 같은 사양의 GPU일수록 연산 능력이 더 강하며,
GPU 및 기타 하드웨어의 수, 즉 연산 속도를 살펴보는 수치입니다.
듀얼 토큰, 거버넌스 기능, 에어드랍 인센티브 등 Web3의 업계 특징인 인센티브 계층 구성은 코인의 단기적인 가격에 너무 집중하기보다는 각 프로젝트의 장기적인 가치를 쉽게 이해할 수 있게 하며 장기적으로는 소유하거나 파견할 수 있는 GPU의 수만 살펴봅니다.
이 관점에서 탈중앙화 산술은 여전히 디핀 경로의 "기존 하드웨어 + 인센티브 네트워크"에 기반하거나 인터넷 아키텍처가 여전히 최하위인 탈중앙화 산술 계층은 "하드웨어 가상화"입니다. 탈중앙화 산술 계층은 "하드웨어 가상화"의 수익화이며, 액세스 없는 액세스에 초점을 맞추고 있으며 실제 네트워크는 여전히 하드웨어의 협력이 필요합니다.
탈중앙화된 연산, 중앙화된 GPU
블록체인 트릴레마 프레임워크에서 탈중앙화된 연산의 보안은 특별한 방식으로 고려할 필요가 없으며, 주로 탈중앙화와 확장이 가능하며, 후자는 GPU 네트워킹의 목적이 될 수 있습니다. 후자는 GPU 네트워킹을 사용하는 것으로, 현재 AI가 고공행진하고 있는 상태입니다.
역설적이게도 탈중앙화된 연산 프로젝트를 만들려면 네트워크의 GPU 수가 가능한 한 많아야 하는데, 그 이유는 다른 이유 없이 GPT 및 기타 대형 모델의 수가 폭발적으로 증가하고 있고, 훈련하거나 추론할 수 없는 규모의 GPU가 없기 때문입니다.
물론 클라우드 공급 업체의 절대적인 통제와 비교하여 현재 단계에서 분산 형 산술 프로젝트는 최소한 GPU 리소스 및 기타 메커니즘의 액세스 및 무료 마이그레이션을 설정할 수 있지만 개선의 자본 효율성에서 미래는 채굴 풀의 제품 형성과 유사하지 않을 수 있습니다.
확장성 측면에서 GPU는 AI뿐만 아니라 클라우드 컴퓨팅 및 렌더링에도 사용할 수 있으며, 예를 들어 렌더 네트워크는 렌더링에 중점을 두고 비트센서 등은 모델 훈련 제공에 중점을 두며, 더 솔직하게 말하면 확장성은 사용 시나리오 및 목적과 동일합니다.
따라서 GPU와 인센티브 네트워크에 탈중앙화 및 확장성이라는 두 가지 매개변수를 추가하여 4점 비교를 구성할 수 있으며, 이는 기술적인 비교가 아니라 순전히 재미를 위한 것임을 참고하시기 바랍니다.
위 프로젝트에서 렌더 네트워크는 실제로 매우 특별하며 본질적으로 AI와 직접적인 관계가 없는 분산 렌더링 네트워크입니다. AI 학습과 추론에서는 SGD(확률적 경사 하강)나 역전파 알고리즘처럼 일관성이 필요하지만 렌더링과 기타 작업은 그럴 필요가 없으며, 작업 분산을 위해 비디오와 이미지로 나뉘는 경우가 많습니다.
AI 훈련 기능은 주로 io.net과 병렬로 이루어지며 io.net의 일종의 플러그인으로 존재합니다. 따라서 GPU에 관한 것이 아니라 수행 방법에 관한 것이며, 더욱 미래 지향적인 것은 솔라나의 과소 평가 당시의 탈북으로 렌더링을 위한 네트워크의 고성능 요구 사항에 더 적합한 것으로 입증된 것입니다.
둘째, io.net의 폭력적인 GPU 대 GPU 규모 개발 경로, 현재 공식 웹 사이트에는 전체 180,000 개의 GPU가 나열되어 있으며 분산 산술 프로젝트에서 다른 라이벌과 규모의 차이가 존재하는 첫 번째 기어에 있으며 확장 성, io.net은 AI 추론에 중점을두고 AI 교육은 부수적 인 수작업에 속합니다. 훈련은 수작업에 속합니다.
엄밀히 말하면, AI 학습은 분산 배포에 적합하지 않습니다. 경량 LLM의 경우에도 절대적인 파라미터 수가 그리 많지 않으며 중앙 집중식 컴퓨팅이 더 비용 효율적입니다. 훈련에서 Web 3와 AI의 조합은 ZK 및 FHE 기술과 같은 데이터 개인 정보 보호 및 암호화 작업에 관한 것이지만 AI 추론 Web 3는 매우 유망합니다. 한편으로는 GPU 성능에 대한 요구 사항이 높지 않고 어느 정도의 손실을 견딜 수 있으며 다른 한편으로는 AI 추론이 애플리케이션 측면에 더 가깝고 사용자 관점에서 인센티브가 더 상당합니다.
또 다른 암호화폐 거래소인 파일코인도 io.net과 GPU 활용 계약을 체결했는데, 파일코인은 자체 GPU 1,000개를 io.net과 병행하여 사용할 예정이며, 이는 일종의 전임자와 후임자가 손을 맞잡은 것으로, 행운을 기원합니다.
다시 한번 말씀드리지만, 젠슨은 아직 네트워크 구축 초기 단계라 GPU 개수를 발표하지 않았지만, 주요 사용 시나리오는 AI 학습이고, 개인적으로는 렌더 네트워크 수준 이상의 고성능 GPU 개수가 렌더 네트워크보다 적지는 않을 것이라고 생각됩니다. 네트워크 수준은 AI 추론, AI 훈련 및 클라우드 공급 업체와 비교하여 특정 메커니즘의 설계에서 직접적인 경쟁이며 더 복잡 할 것입니다.
특히, 젠슨은 모델 훈련의 유효성을 보장해야 하며, 훈련의 효율성을 높이기 위해 오프체인 컴퓨팅 패러다임을 대규모로 사용해야 하므로 모델 인증 및 부정행위 방지 시스템은 멀티 롤 게임이어야 합니다:
전반적으로 작업 증명 채굴 + 낙관주의 증명 메커니즘과 유사하며 아키텍처가 매우 복잡합니다. 체인 아래로 계산을 이동하면 비용을 절감할 수 있지만 아키텍처의 복잡성으로 인해 추가 운영 비용이 발생하며, 현재 주요 탈중앙 연산이 AI 추론에 집중하는 시점에서 Gensyn이 좋은 평판을 얻고 있다는 것은 좋은 일입니다. 젠슨에게도 행운을 빕니다.
마지막으로, 렌더 네트워크와 기본적으로 같은 시기에 시작된 아카시는 CPU 탈중앙화에 초점을 맞춘 반면, 렌더 네트워크는 초기 단계에서 GPU 탈중앙화에 집중하여 양쪽 모두 GPU + AI로 갈 것으로 예상하지 못했습니다. 아카시는 추론에 더 중점을 둔다는 점이 차이점입니다.
아카시 부활의 핵심은 업그레이드된 이더리움에서 채굴의 문제를 여대생들이 사용한다는 명목으로 유휴 GPU를 유휴 피쉬에 등록할 수 있을 뿐만 아니라, 어떤 경우에도 인류 문명에 기여하는 AI에 함께 사용할 수 있다고 본다는 점입니다.
그러나 아카시는 기본적으로 토큰이 완전히 유통된다는 장점이 있고, 어쨌든 아주 오래된 프로젝트이고, PoS에서 흔히 사용하는 서약 시스템을 적극적으로 채택하고 있지만, 팀을 어떻게 보면 더 불교적이고, 높이 날고 있는 io.net의 젊음은 없는 것 같기도 하죠.
그 외에도 엣지 클라우드 컴퓨팅 회사인 THETA, 틈새 영역에 AI 컴퓨팅 솔루션을 제공하는 Phoenix, 그리고 공간 제약으로 여기에 나열할 수 없는 비텐서, 리추얼 등 구형 및 신형 컴퓨터도 있지만 일부는 GPU 수를 찾지 못했습니다.
결론
컴퓨팅의 역사를 통틀어 모든 유형의 컴퓨팅 패러다임은 탈중앙화된 버전을 구축할 수 있었지만, 아쉬운 점은 주류 애플리케이션에 영향을 미치지 못했다는 것과 현재의 웹3 컴퓨팅 프로젝트가 여전히 자급자족적인 프로젝트라는 점뿐입니다. 현재의 웹3 컴퓨팅 프로젝트는 여전히 업계의 자구책에 불과하며, Near의 창립자들이 GTC 컨퍼런스에 참석한 것은 Near의 창립자 때문이 아니라 트랜스포머의 저자이기 때문입니다.
더 비관적인 시각은 현재 클라우드 컴퓨팅 시장의 규모와 플레이어가 너무 강력하다는 것입니다. io.net이 AWS를 대체할 수는 있지만 GPU 수가 충분히 많으면 가능하지만, 결국 AWS는 오랫동안 오픈 소스 Redis를 빌딩 블록으로 사용해 왔기 때문에 가능합니다.
어떤 의미에서 오픈소스와 탈중앙화의 힘은 동등하지 않으며, 탈중앙화 프로젝트는 DeFi와 같은 금융 영역에 지나치게 집중되어 있는 반면 AI는 주류 시장으로 가는 핵심 경로가 될 수 있습니다.