출처: PermaDAO
AI on AO 릴리스에서는 Web Assembly 64비트 지원, WeaveDrive 기술, Llama.cpp 대규모 언어 모델 추론 엔진의 통합 등 세 가지 중요한 기술 혁신이 소개되었습니다. LlaMA Land와 Apus Network라는 두 개의 프로젝트도 소개되었습니다. 자세한 내용은 기사를 참조하세요.
6월 20일, AI on AO 런칭 이벤트가 성황리에 종료되었습니다. 이 행사에서 AO 프로토콜은 탈중앙화 환경에서 대규모 언어 모델을 실행할 수 있는 스마트 컨트랙트 기능에 있어 흥미로운 기술적 돌파구가 될 세 가지 주요 기술 업데이트를 시연했습니다.
이미지 src="https://img.jinse.cn/7253753_image3.png">
특히, AO의 주요 AI 기술 혁신은 다음 세 가지를 포함합니다:
웹 어셈블리 64비트 지원: 개발자는 이제 4GB 이상의 RAM으로 앱을 만들 수 있으며, 웹 어셈블리 64비트는 이론적으로 최대 16엑사바이트(약 17억 기가바이트에 해당)의 메모리를 지원합니다. 현재 AO는 16GB의 모델을 실행할 수 있으며, 이는 현재 AO의 메모리 수준인 16GB는 오늘날 AI 분야의 거의 모든 모델을 실행하기에 충분하다는 것을 의미합니다. 이러한 메모리 용량의 증가는 애플리케이션 성능을 향상시킬 뿐만 아니라 개발 유연성과 기술 혁신을 촉진합니다.
이 세 가지 중요한 기술적 혁신은 개발자들이 AO에서 AI 애플리케이션을 구축할 수 있는 더 많은 여지를 만들어줍니다. 앱의 예로, 이번 행사에서는 완전히 AI로 구동되는 새로운 프로젝트인 라마 랜드(Llama Land)와 또 다른 탈중앙화 GPU 네트워크 프로젝트인 에이퍼스 네트워크(Apus Network)가 소개되었으며, 이는 향후 가장 비용 효율적인 방식으로 AO에서 AI 앱의 AI 모델을 실행할 수 있는 최상의 환경을 제공할 것입니다.
Llama Land
Llama Land는 AO에 구축된 완전 업링크된 대규모 온라인 멀티플레이어 게임으로, 완전히 AI 기반(라마 3 모델)으로 사용자를 위한 가상 세계를 생성하며, 라마 랜드에는 라마 페드라는 시스템이 존재합니다. 연방준비제도와 유사하지만 통화 정책과 라마 토큰 발행을 담당하는 라마 모델에 의해 운영됩니다.
이미지 src="https://img.jinse.cn/7253754_image3.png">
사용자는 아위브 토큰(wAR)을 제공하여 라마 토큰을 요청할 수 있으며, 라마 페드는 요청의 질(예: 프로젝트/제안이 흥미로운지, 가치가 있는지 등)에 따라 토큰을 수여할지 여부를 자체적으로 결정합니다. 토큰 수여 결정은 사람의 개입 없이 자율적으로 이루어집니다.
현재 라마랜드는 아직 완전히 공개되지 않았으며, 관심 있는 사용자는 웹사이트를 방문하여 대기자 명단에 가입하여 첫 체험을 기다릴 수 있습니다.
에이퍼스 네트워크
에이퍼스 네트워크는 라이선스가 필요 없는 탈중앙화된 GPU 네트워크입니다. Arweave의 퍼시스턴트 스토리지와 AO의 확장성을 활용하고 경제적 인센티브를 통해 AI 모델을 위한 결정론적 GPU 실행 환경을 제공합니다. 특히 에이퍼스 네트워크는 탈중앙화 AI 개발을 촉진하기 위해 AO에서 AI 애플리케이션을 위한 효율적이고 안전하며 비용 효율적인 컴퓨팅 환경을 제공합니다.
이미지 src="https://img.jinse.cn/7253755_image3.png">
에이퍼스 네트워크 프로젝트는 최근 사용자 경험을 향상시키기 위해 웹사이트 콘텐츠를 업데이트했습니다. 한편, 모델 평가 기능과 모델 미세 조정 기능의 개발은 계속 진행 중이며 이정표를 달성하고 있습니다. 향후 에이퍼스 네트워크는 플레이그라운드에서 AO 에코월렛을 지원하고 관련 개발 및 테스트를 완료할 계획입니다. 또한, 모델 평가 기능을 확장하고 AO 플랫폼에 구현하여 애플리케이션 기능과 성능을 더욱 향상시킬 예정입니다.
요약
AI on AO 출시 이벤트는 다양한 고급 AI 모델을 호스팅하는 AO의 능력을 보여줬을 뿐만 아니라 탈중앙화 AI 애플리케이션 개발을 크게 촉진했습니다. 기술 업그레이드 이후 프로젝트의 예로 라마랜드는 자율 AI 에이전트 애플리케이션의 프로토타입을 시연했습니다. AI 애플리케이션이 발전함에 따라 AO 생태계는 대규모 언어 모델의 실행을 가속화하기 위해 더 많은 GPU 리소스를 도입할 것이며, 에이퍼스 네트워크는 AO에 액세스하는 최초의 탈중앙화 GPU 네트워크가 될 것입니다.
향후 AO는 필요에 따라 더 큰 규모의 AI 모델 실행을 지원하기 위해 메모리 제한을 더욱 늘릴 예정입니다. 동시에 AO는 탈중앙화 금융 및 스마트 컨트랙트의 적용 시나리오를 더욱 확장하기 위해 자율 AI 에이전트를 구축할 수 있는 가능성을 지속적으로 모색할 것입니다.