블록비츠에 따르면, AO 생태계는 6월 21일 'AI on AO' 계획을 발표했습니다. 이 이니셔티브는 온체인 오픈소스 대규모 언어 모델(LLM)을 출시하는 것을 목표로 하며, LLM뿐만 아니라 모든 AI 모델을 온체인에 도입하는 것을 목표로 합니다. 이 계획은 Apus 네트워크를 기반으로 하며, Arweave의 영구적인 온체인 스토리지를 활용하여 탈중앙화되고 신뢰할 필요가 없는 GPU 네트워크를 구축합니다. 이 네트워크는 AI 훈련과 추론을 위한 안정적이고 효율적이며 저렴한 컴퓨팅 파워를 제공하는 데 전념하고 있습니다.
AO의 AI 데이터는 ArDrive를 통해 Arweave의 모델에 업로드할 수 있습니다. 이러한 움직임은 AI를 탈중앙화하고 접근성과 효율성을 높이기 위한 중요한 단계입니다. AI 모델을 온체인화함으로써 AO 생태계는 새로운 AI 개발 및 사용의 시대를 열어가고 있습니다. 아위브의 영구적인 온체인 스토리지를 사용하면 이러한 AI 모델의 내구성과 수명이 더욱 보장되어 향후 AI 훈련과 추론을 위한 신뢰할 수 있는 리소스가 될 것입니다.
'AI on AO' 계획은 AI 기술 및 애플리케이션을 발전시키려는 AO 생태계의 노력을 보여주는 증거입니다. 탈중앙화되고 신뢰가 필요 없는 GPU 네트워크를 제공함으로써 생태계는 AI 학습 및 추론의 효율성을 향상시킬 뿐만 아니라 AI 기술에 대한 투명성과 신뢰를 증진시키고 있습니다. 이 이니셔티브는 AI 산업에 상당한 영향을 미칠 것으로 예상되며, 잠재적으로 AI 모델의 개발 및 사용 방식에 혁신을 가져올 것입니다.