Danh sách 7 dự án AI phi tập trung
AI phi tập trung có thể là lĩnh vực phát triển nhanh nhất mà chúng ta sẽ thấy trong thế giới tiền điện tử.
JinseFinanceTác giả: @ed_roman; Biên soạn bởi: Vernacular Blockchain
Gần đây, trí tuệ nhân tạo đã trở thành công nghệ phổ biến nhất trong thị trường tiền điện tử. Một trong những lĩnh vực nóng nhất và hứa hẹn nhất. Bao gồm:
Đào tạo AI phi tập trung
Mạng cơ sở hạ tầng vật lý phi tập trung GPU
Mô hình AI không bị kiểm duyệt Đây là những phát triển đột phá hay chỉ là sự cường điệu ?
Tại @hack_vc, chúng tôi đang cố gắng vượt qua sương mù và tách biệt những lời hứa khỏi thực tế. Bài viết này sẽ cung cấp phân tích chuyên sâu về những ý tưởng hàng đầu về mã hóa và AI. Hãy cùng nhau khám phá những thách thức và cơ hội thực sự.
Vấn đề với việc đào tạo AI trên chuỗi là việc đào tạo yêu cầu giao tiếp và phối hợp tốc độ cao giữa các GPU vì mạng thần kinh cần thực hiện truyền ngược trong quá trình đào tạo. Nvidia cung cấp hai công nghệ tiên tiến cho việc này (NVLink và InfiniBand). Những kỹ thuật này có thể tăng tốc đáng kể giao tiếp GPU, nhưng chúng chỉ có thể được sử dụng trong một cụm GPU trong một trung tâm dữ liệu duy nhất (tốc độ vượt quá 50 Gbps).
Nếu mạng phi tập trung được triển khai, tốc độ sẽ chậm hơn đáng kể do độ trễ và băng thông mạng tăng lên. Điều này đơn giản là không khả thi đối với các trường hợp sử dụng đào tạo AI so với kết nối tốc độ cao mà Nvidia cung cấp trong các trung tâm dữ liệu. Ngoài ra, băng thông mạng và chi phí lưu trữ cao hơn nhiều trong môi trường phi tập trung so với SSD trong cụm cục bộ.
Một vấn đề khác khi đào tạo các mô hình AI trên chuỗi là thị trường này kém hấp dẫn hơn thị trường suy luận. Hiện nay, một lượng lớn tài nguyên tính toán GPU được sử dụng để đào tạo các mô hình ngôn ngữ lớn AI (LLM). Nhưng về lâu dài, suy luận sẽ trở thành kịch bản ứng dụng chính của GPU. Hãy thử nghĩ xem: Cần đào tạo bao nhiêu mô hình ngôn ngữ AI lớn để đáp ứng nhu cầu? Để so sánh, có bao nhiêu khách hàng sẽ sử dụng những mô hình này?
Xin lưu ý rằng đã có một số cải tiến trong lĩnh vực này có thể mang lại hy vọng cho tương lai của hoạt động đào tạo AI trên chuỗi:
1) Hoạt động đào tạo phân tán dựa trên InfiniBand đang được thực hiện trên quy mô lớn và bản thân NVIDIA cũng hỗ trợ đào tạo phân tán phi cục bộ thông qua thư viện truyền thông chung của mình. Tuy nhiên, điều này vẫn đang ở giai đoạn đầu và việc áp dụng vẫn còn phải chờ xem. Nút thắt do khoảng cách vật lý vẫn tồn tại nên việc đào tạo InfiniBand tại địa phương vẫn nhanh hơn đáng kể.
2) Một số nghiên cứu mới đã được công bố, khám phá hoạt động đào tạo phi tập trung giúp giảm số lượng đồng bộ hóa giao tiếp, điều này có thể khiến việc đào tạo phi tập trung trở nên thiết thực hơn trong tương lai.
3) Phân đoạn thông minh và lập kế hoạch đào tạo có thể giúp cải thiện hiệu suất. Tương tự như vậy, có thể có những kiến trúc mô hình mới được thiết kế dành riêng cho cơ sở hạ tầng phân tán trong tương lai (Gensyn đang tiến hành nghiên cứu trong các lĩnh vực này).
4) Sự đổi mới như Neuromesh cố gắng đạt được hoạt động đào tạo phân tán với chi phí thấp hơn thông qua một phương pháp mới gọi là mạng mã hóa dự đoán (PCN).
Phần thông tin dữ liệu đào tạo cũng là một vấn đề. Bất kỳ quá trình đào tạo AI nào cũng liên quan đến việc xử lý lượng lớn dữ liệu. Thông thường, các mô hình được đào tạo trên các hệ thống lưu trữ dữ liệu tập trung và an toàn, có khả năng mở rộng và hiệu suất cao. Điều này đòi hỏi phải truyền và xử lý hàng terabyte dữ liệu và đây không phải là chu kỳ một lần. Dữ liệu thường nhiễu và chứa nhiều lỗi nên trước khi huấn luyện mô hình, dữ liệu phải được làm sạch và chuyển đổi sang định dạng có thể sử dụng được. Giai đoạn này bao gồm các nhiệm vụ lặp đi lặp lại như chuẩn hóa, lọc và xử lý các giá trị bị thiếu. Trong một môi trường phi tập trung, những điều này đặt ra những thách thức nghiêm trọng.
Phần thông tin dữ liệu huấn luyện cũng lặp đi lặp lại, không tương thích với Web3. OpenAI phải mất hàng nghìn lần lặp lại mới đạt được kết quả như mong muốn. Quá trình đào tạo được lặp đi lặp lại: nếu mô hình hiện tại không hoạt động như mong đợi, các chuyên gia sẽ quay lại giai đoạn thu thập dữ liệu hoặc đào tạo mô hình để cải thiện kết quả. Bây giờ, hãy tưởng tượng thực hiện quy trình này trong một môi trường phi tập trung, nơi các khung và công cụ tốt nhất hiện có không có sẵn trong Web3.
Một công nghệ đầy hứa hẹn là 0g.ai (được hỗ trợ bởi Hack VC), chúng cung cấp cơ sở hạ tầng lưu trữ dữ liệu và tính khả dụng của dữ liệu trên chuỗi. Chúng có kiến trúc nhanh hơn và khả năng lưu trữ lượng lớn dữ liệu trên chuỗi.
Kết hợp mã hóa với AI One Một trong những thách thức là xác minh tính chính xác của suy luận AI, bởi vì bạn không thể tin tưởng hoàn toàn vào một bên tập trung duy nhất để thực hiện các hoạt động suy luận và có khả năng các nút hoạt động sai. Trong AI của Web2, thách thức này không tồn tại vì không có hệ thống đồng thuận phi tập trung.
Một giải pháp là tính toán dự phòng, trong đó nhiều nút lặp lại các hoạt động suy luận AI giống nhau để hoạt động trong môi trường không tin cậy và tránh Lỗi điểm đơn lẻ.
Vấn đề với cách tiếp cận này là chúng ta đang sống trong một thế giới thiếu hụt nghiêm trọng chip AI cao cấp. Thời gian chờ đợi của chip NVIDIA cao cấp lên tới vài năm khiến giá thành tăng cao. Nếu bạn cũng yêu cầu thực hiện suy luận AI nhiều lần và liên tục trên nhiều nút, điều này sẽ làm tăng đáng kể các chi phí đắt đỏ này. Đối với nhiều dự án, điều này sẽ không hiệu quả.
Một số người cho rằng Web3 nên có các trường hợp sử dụng AI độc đáo của riêng mình, nhắm mục tiêu cụ thể đến khách hàng Web3.
Hiện tại, đây vẫn là một thị trường mới nổi và các trường hợp sử dụng vẫn đang được khám phá. Một số thách thức bao gồm:
Các trường hợp sử dụng gốc Web3 yêu cầu ít giao dịch AI hơn do nhu cầu thị trường Vẫn còn tuổi thơ của nó.
Có ít khách hàng hơn vì số lượng đơn đặt hàng của khách hàng Web3 ít hơn khách hàng Web2, nên thị trường ít bị phân mảnh hơn.
Bản thân khách hàng không đủ ổn định vì họ là những startup có ít vốn hơn nên những startup này có thể mất giá trị theo thời gian sụp đổ. Các nhà cung cấp dịch vụ AI nhắm đến khách hàng Web3 có thể cần phải có lại một số khách hàng theo thời gian để thay thế những khách hàng đã ngừng hoạt động, khiến việc mở rộng kinh doanh của họ trở nên khó khăn hơn.
Về lâu dài, chúng tôi rất lạc quan về các trường hợp sử dụng AI gốc của Web3, đặc biệt là khi các tác nhân AI trở nên phổ biến hơn. Chúng tôi hình dung một tương lai nơi mọi người dùng Web3 sẽ có nhiều tác nhân AI hỗ trợ họ. Người dẫn đầu ban đầu trong lĩnh vực này là Theoriq.ai, công ty đang xây dựng một nền tảng gồm các tác nhân AI có thể kết hợp được, có khả năng phục vụ các máy khách Web2 và Web3 (được hỗ trợ bởi Hack VC).
Có Nhiều phi tập trung Mạng điện toán AI dựa vào GPU cấp độ người tiêu dùng thay vì GPU của trung tâm dữ liệu. GPU cấp độ người tiêu dùng phù hợp cho các tác vụ suy luận AI cấp thấp hoặc các trường hợp sử dụng của người tiêu dùng với các yêu cầu về độ trễ, thông lượng và độ tin cậy linh hoạt hơn. Nhưng đối với các trường hợp sử dụng nghiêm túc của doanh nghiệp (tức là những trường hợp chiếm thị phần lớn), khách hàng mong đợi mạng sẽ đáng tin cậy hơn máy gia đình và các tác vụ suy luận phức tạp thường yêu cầu GPU cao cấp hơn. Đối với những trường hợp sử dụng khách hàng có giá trị hơn này, trung tâm dữ liệu sẽ phù hợp hơn.
Điều quan trọng cần lưu ý là chúng tôi tin rằng GPU dành cho người tiêu dùng phù hợp cho mục đích trình diễn hoặc cho những cá nhân và công ty khởi nghiệp có thể chấp nhận được độ tin cậy thấp hơn. Nhưng giá trị của những khách hàng này về cơ bản thấp hơn, vì vậy chúng tôi tin rằng Mạng cơ sở hạ tầng vật lý phi tập trung (DePIN) dành cho doanh nghiệp Web2 sẽ có giá trị hơn về lâu dài. Do đó, các dự án GPU DePIN nổi tiếng thường phát triển từ việc chủ yếu sử dụng phần cứng cấp độ người tiêu dùng trong những ngày đầu đến hiện có A100/H100 và tính khả dụng ở cấp độ cụm.
Bây giờ, hãy thảo luận về việc sử dụng trường hợp crypto x AI có thể tăng giá trị đáng kể.
McKinsey ước tính rằng AI có khả năng sáng tạo có thể mang lại 2,6 nghìn tỷ USD tới 4,4 nghìn tỷ USD giá trị gia tăng cho 63 trường hợp sử dụng mà họ đã phân tích - so với tổng GDP của Vương quốc Anh vào năm 2021 là 3,1 nghìn tỷ USD. Điều này sẽ làm tăng tác động của tất cả AI từ 15% đến 40%. Giá trị ước tính này sẽ tăng gấp đôi nếu chúng ta nhúng AI tổng quát vào phần mềm hiện đang được sử dụng cho các nhiệm vụ khác.
Thật thú vị:
Dựa trên những ước tính trên, điều này có nghĩa là tổng giá trị thị trường của AI toàn cầu (không chỉ AI tổng hợp) có thể đạt tới hàng chục nghìn tỷ đô la.
So sánh, tổng giá trị của tất cả các loại tiền điện tử (bao gồm Bitcoin và tất cả các loại tiền thay thế) cộng lại ngày nay chỉ khoảng 2,7 nghìn tỷ USD.
Vì vậy, hãy thực tế: đại đa số khách hàng cần AI trong thời gian ngắn sẽ là khách hàng của Web2, bởi vì AI Khách hàng Web3 thực sự cần thiết chỉ là một phần nhỏ trong thị trường 2,7 nghìn tỷ đô la này (vì BTC chiếm một nửa thị phần và bản thân BTC không yêu cầu/sử dụng AI).
Các trường hợp sử dụng AI của Web3 mới bắt đầu và chưa rõ quy mô thị trường sẽ lớn đến mức nào. Nhưng có một điều chắc chắn về mặt trực giác - trong tương lai gần, nó sẽ chỉ là một phần của thị trường Web2. Chúng tôi tin rằng Web3 AI vẫn còn tương lai tươi sáng, nhưng điều này có nghĩa là ứng dụng phổ biến nhất của Web3 AI hiện nay là phục vụ khách hàng Web2.
Ví dụ về những khách hàng Web2 có thể hưởng lợi từ Web3 AI bao gồm:
Các doanh nghiệp lớn (chẳng hạn như Netflix) tinh chỉnh các mô hình cho mục đích riêng của họ
Các dịch vụ AI đang phát triển nhanh Các công ty phần mềm (chẳng hạn như Anthropic)
Các công ty phần mềm bổ sung chức năng AI vào các sản phẩm hiện có (chẳng hạn như Canva )
li>Đây là nhóm khách hàng tương đối ổn định vì lượng khách hàng này thường lớn và có giá trị. Họ khó có thể sớm ngừng kinh doanh và đại diện cho một lượng khách hàng tiềm năng rất lớn đối với các dịch vụ AI. Các dịch vụ Web3 AI phục vụ khách hàng Web2 sẽ được hưởng lợi từ lượng khách hàng ổn định này.
Nhưng tại sao khách hàng Web2 lại muốn sử dụng ngăn xếp công nghệ Web3? Phần còn lại của bài viết này giải thích lý do này.
GPU DePIN tổng hợp sức mạnh tính toán GPU chưa được sử dụng đúng mức (đáng tin cậy nhất đến từ các trung tâm dữ liệu) và cung cấp các tài nguyên này cho hoạt động suy luận AI. Hãy nghĩ đơn giản về nó như “Airbnb của GPU” (tức là sự hợp tác tiêu dùng những tài sản không được sử dụng đúng mức).
Những lý do khiến chúng tôi hào hứng với GPU DePIN như đã đề cập ở trên, chủ yếu là do thiếu chip NVIDIA, hiện tại có nhiều chu trình GPU đang bị lãng phí và các tài nguyên này có thể được sử dụng để suy luận AI. Những chủ sở hữu phần cứng này đã giảm chi phí và hiện đang sử dụng không đúng mức thiết bị của họ, vì vậy, các chu trình GPU một phần này có thể được cung cấp với chi phí thấp hơn hiện trạng vì nó thực sự là một "cơ hội may mắn" đối với chủ sở hữu phần cứng.
Các ví dụ cụ thể bao gồm:
1) Máy AWS: Nếu bạn thuê một chiếc từ AWS ngay hôm nay Với H100, bạn cần cam kết thuê ít nhất một năm vì thị trường khan hiếm. Điều này dẫn đến lãng phí vì bạn khó có thể sử dụng GPU của mình 7 ngày một tuần, 365 ngày một năm.
2) Phần cứng khai thác Filecoin: Mạng Filecoin có nguồn cung được trợ giá lớn nhưng nhu cầu thực tế không lớn. Thật không may, Filecoin chưa bao giờ tìm được sản phẩm thực sự phù hợp với thị trường, vì vậy những người khai thác Filecoin có nguy cơ phá sản. Những máy này được trang bị GPU có thể được tái sử dụng cho các tác vụ suy luận AI cấp thấp.
3) Phần cứng khai thác ETH: Khi ETH chuyển từ Proof of Work (PoW) sang Proof of Stake (PoS), một lượng lớn phần cứng sẽ có sẵn ngay lập tức. Có thể được tái sử dụng cho lý luận AI.
Thị trường GPU DePIN có tính cạnh tranh cao với nhiều người chơi cung cấp sản phẩm. Ví dụ Aethir, Exabits và Akash. Hack VC đã chọn hỗ trợ io.net, công ty cũng tổng hợp nguồn cung thông qua quan hệ đối tác với các DePIN GPU khác, vì vậy họ hiện hỗ trợ nguồn cung cấp GPU lớn nhất trên thị trường.
Cần lưu ý rằng không phải phần cứng GPU nào cũng phù hợp với suy luận AI. Một lý do rõ ràng là các GPU cũ hơn không có đủ bộ nhớ GPU để xử lý các mô hình ngôn ngữ lớn (LLM), mặc dù đã có một số cải tiến thú vị trong lĩnh vực này. Ví dụ: Exabits đã phát triển công nghệ để tải các nơ-ron hoạt động vào bộ nhớ GPU và các nơ-ron không hoạt động vào bộ nhớ CPU. Họ dự đoán tế bào thần kinh nào cần hoạt động/không hoạt động. Điều này cho phép khối lượng công việc AI được xử lý bằng GPU cấp thấp ngay cả với bộ nhớ GPU hạn chế. Điều này thực sự làm tăng tính hữu ích của GPU cấp thấp cho hoạt động suy luận AI.
Ngoài ra, Web3 AI DePIN sẽ cần nâng cao dịch vụ của mình theo thời gian để cung cấp các dịch vụ cấp doanh nghiệp như đăng nhập một lần (SSO), tuân thủ SOC 2, Thỏa thuận cấp độ dịch vụ (SLA), v.v. Điều này sẽ có thể so sánh với các dịch vụ đám mây mà khách hàng Web2 hiện đang yêu thích.
Giới thiệu về AI The vấn đề kiểm duyệt đã được thảo luận nhiều. Ví dụ: Thổ Nhĩ Kỳ đã có thời điểm tạm thời cấm OpenAI (sau đó họ đã dỡ bỏ lệnh cấm sau khi OpenAI cải thiện khả năng tuân thủ của mình). Chúng tôi tin rằng việc giám sát ở cấp quốc gia này về cơ bản là không có cơ sở, vì các quốc gia cần áp dụng AI để duy trì tính cạnh tranh.
Điều thú vị hơn là OpenAI sẽ tự kiểm duyệt. Ví dụ: OpenAI sẽ không xử lý nội dung NSFW (không phù hợp để xem tại nơi làm việc) cũng như không dự đoán kết quả của cuộc bầu cử tổng thống tiếp theo. Chúng tôi tin rằng có một thị trường thú vị và rộng lớn trong lĩnh vực ứng dụng AI mà OpenAI không muốn tham gia vì lý do chính trị.
Nguồn mở là một cách tốt để giải quyết vấn đề này, vì kho Github không bị các cổ đông hoặc ban giám đốc kiểm soát. Một ví dụ là Venice.ai, hứa hẹn bảo vệ quyền riêng tư của người dùng và hoạt động theo cách không kiểm duyệt. Tất nhiên, điều quan trọng là bản chất nguồn mở của nó, điều này khiến điều này trở nên khả thi. Web3 AI có thể cải thiện điều này một cách hiệu quả bằng cách chạy các mô hình phần mềm nguồn mở (OSS) này trên các cụm GPU chi phí thấp để suy luận. Vì điều này, chúng tôi tin rằng OSS + Web3 là sự kết hợp lý tưởng để mở đường cho AI không bị kiểm duyệt.
Nhiều doanh nghiệp lớn có lo ngại về quyền riêng tư về dữ liệu nội bộ của công ty họ. Đối với những khách hàng này, thật khó để tin tưởng một bên thứ ba tập trung như OpenAI sẽ xử lý dữ liệu này.
Đối với những doanh nghiệp này, việc sử dụng web3 có thể còn đáng sợ hơn khi dữ liệu nội bộ của họ đột nhiên xuất hiện trên một mạng phi tập trung. Tuy nhiên, đối với AI, đã có một số đổi mới trong công nghệ nâng cao quyền riêng tư:
Môi trường thực thi đáng tin cậy (TEE), chẳng hạn như Siêu giao thức
Những công ty hoàn toàn đồng hình như Fhenix.io (một công ty đầu tư quỹ do Hack VC quản lý) hoặc Inco Network (cả hai đều được cung cấp bởi Zama.ai) và Mã hóa PPML của Bagel (FHE)
Những công nghệ này vẫn đang phát triển và hiệu suất tiếp tục được cải thiện thông qua Zero-know (ZK) và FHE ASIC sắp tới. Nhưng mục tiêu dài hạn là bảo vệ dữ liệu doanh nghiệp đồng thời tinh chỉnh mô hình. Khi các giao thức này xuất hiện, web3 có thể trở thành một địa điểm hấp dẫn hơn cho điện toán AI bảo vệ quyền riêng tư.
Trong quá khứ vài năm Trong một thập kỷ, phần mềm nguồn mở (OSS) đã chiếm lĩnh thị phần của phần mềm độc quyền. Chúng tôi xem LLM như một phần mềm độc quyền tiên tiến đang trở thành mục tiêu đột phá cho phần mềm nguồn mở. Một số đối thủ đáng chú ý bao gồm Llama, RWKV và Mistral.ai. Danh sách này chắc chắn sẽ phát triển theo thời gian (danh sách đầy đủ hơn có sẵn tại Openrouter.ai). Bằng cách tận dụng web3 AI được hỗ trợ bởi các mô hình nguồn mở, mọi người có thể tận dụng tối đa những cải tiến mới này.
Chúng tôi tin rằng, theo thời gian, nỗ lực phát triển nguồn mở toàn cầu, kết hợp với các ưu đãi về tiền điện tử, có thể thúc đẩy các mô hình nguồn mở và các tác nhân được xây dựng dựa trên chúng và sự đổi mới nhanh chóng của các khuôn khổ. Một ví dụ về giao thức tác nhân AI là Theoriq. Theoriq tận dụng các mô hình nguồn mở để tạo ra một mạng lưới các tác nhân AI được kết nối với nhau một cách tổng hợp có thể được tập hợp lại với nhau để tạo ra các giải pháp AI tiên tiến hơn.
Lý do chúng tôi tin tưởng mạnh mẽ vào điều này là dựa trên kinh nghiệm trong quá khứ: hầu hết "phần mềm dành cho nhà phát triển" đã bị phần mềm nguồn mở vượt qua theo thời gian. Có lý do tại sao Microsoft từng là công ty phần mềm độc quyền và hiện là công ty đóng góp hàng đầu cho Github. Nếu bạn nhìn vào cách Databricks, PostGresSQL, MongoDB, v.v. đang phá vỡ cơ sở dữ liệu độc quyền, thì toàn bộ ngành là một ví dụ về việc bị phần mềm nguồn mở phá vỡ, vì vậy tiền lệ ở đây khá mạnh.
Tuy nhiên, có một nhược điểm nhỏ. Một vấn đề nhức nhối với OSS LLM là OpenAI đã bắt đầu ký các thỏa thuận cấp phép dữ liệu phải trả phí với các tổ chức, chẳng hạn như Reddit và New York Times. Nếu xu hướng này tiếp tục, các LLM OSS có thể ngày càng khó cạnh tranh do các rào cản kinh tế trong việc truy cập dữ liệu. NVIDIA có thể sử dụng điện toán bí mật như một công cụ nâng cao để chia sẻ dữ liệu an toàn. Thời gian sẽ cho biết điều này phát triển như thế nào.
Trong lý luận web3 AI, việc xác minh là một thách thức. Người xác minh có thể thu được phí bằng cách giả mạo kết quả, vì vậy việc xác minh suy luận là một biện pháp quan trọng. Điều quan trọng cần lưu ý là mặc dù lý luận AI vẫn còn ở giai đoạn sơ khai, nhưng sự lừa dối như vậy là không thể tránh khỏi trừ khi các bước được thực hiện để làm suy yếu động cơ khuyến khích hành vi đó.
Cách tiếp cận web3 tiêu chuẩn là yêu cầu nhiều trình xác thực lặp lại cùng một thao tác và so sánh kết quả. Tuy nhiên, như đã đề cập trước đó, suy luận AI rất tốn kém do tình trạng thiếu chip Nvidia cao cấp hiện nay. Vì web3 có thể cung cấp khả năng suy luận với chi phí thấp hơn thông qua các DePIN GPU không được sử dụng đúng mức nên việc tính toán dư thừa sẽ làm suy yếu nghiêm trọng đề xuất giá trị của web3.
Một giải pháp hứa hẹn hơn là thực hiện bằng chứng không có kiến thức cho các phép tính suy luận AI ngoài chuỗi. Trong trường hợp này, bằng chứng không có kiến thức ngắn gọn có thể được xác minh để xác định xem mô hình đã được đào tạo chính xác hay suy luận có chạy chính xác hay không (được gọi là zkML). Ví dụ bao gồm Phòng thí nghiệm Modulus và ZKonduit. Do các hoạt động không có kiến thức đòi hỏi nguồn lực tính toán đáng kể nên hiệu suất của các giải pháp này vẫn còn ở giai đoạn sơ khai. Tuy nhiên, tình trạng này có thể được cải thiện với sự ra đời của ASIC phần cứng không có kiến thức trong tương lai gần.
Một ý tưởng hứa hẹn hơn là phương pháp suy luận AI dựa trên lấy mẫu "lạc quan". Trong mô hình này, bạn chỉ cần xác thực một phần nhỏ kết quả do người xác thực tạo ra nhưng đặt chi phí kinh tế đủ cao để trừng phạt những người xác nhận bị bắt gian lận, từ đó tạo ra hiệu ứng cấm kinh tế mạnh mẽ. Bằng cách này, bạn sẽ lưu được các phép tính dư thừa (ví dụ: xem bài viết "Bằng chứng lấy mẫu" của Hyperbolic).
Một ý tưởng đầy hứa hẹn khác là giải pháp sử dụng công nghệ tạo hình mờ và lấy dấu vân tay, chẳng hạn như giải pháp do Bagel Network đề xuất. Điều này tương tự như cơ chế mà Amazon Alexa cung cấp để đảm bảo chất lượng cho các mô hình AI của mình trên hàng triệu thiết bị.
Cơ hội tiếp theo mà web3 mang lại cho AI là dân chủ hóa việc giảm chi phí. Cho đến nay chúng ta đã thảo luận về các cách tiết kiệm chi phí GPU thông qua DePIN như io.net. Tuy nhiên, web3 cũng mang đến cơ hội tiết kiệm tỷ suất lợi nhuận trên các dịch vụ AI web2 tập trung (chẳng hạn như OpenAI, có doanh thu hàng năm hơn 1 tỷ USD dựa trên thông tin tại thời điểm viết bài này). Những khoản tiết kiệm chi phí này đến từ việc sử dụng các mô hình phần mềm nguồn mở (OSS) thay vì các mô hình độc quyền, dẫn đến tiết kiệm thêm chi phí vì những người tạo mô hình không cố gắng kiếm lợi nhuận.
Nhiều mô hình phần mềm nguồn mở sẽ luôn hoàn toàn miễn phí, mang lại lợi ích kinh tế tốt nhất cho khách hàng. Tuy nhiên, cũng có thể có một số mô hình phần mềm nguồn mở thử các phương thức kiếm tiền này. Hãy xem xét rằng chỉ có 4% người mẫu trên Ôm Mặt được đào tạo bởi các công ty có kinh phí để trợ cấp cho những người mẫu này (xem tại đây). 96% mô hình còn lại được cộng đồng đào tạo. Nhóm mô hình Ôm mặt 96% này phải đối mặt với chi phí thực tế (bao gồm chi phí tính toán và chi phí dữ liệu). Vì vậy, những mô hình này cần phải được kiếm tiền theo một cách nào đó.
Có rất nhiều đề xuất để kiếm tiền từ mô hình phần mềm nguồn mở này. Một trong những điều thú vị nhất trong số này là khái niệm "Cung cấp mô hình ban đầu" (IMO), nhằm mã hóa chính mô hình, để lại một phần mã thông báo cho nhóm và chuyển một số doanh thu trong tương lai của mô hình sang mã thông báo. chủ sở hữu, mặc dù rõ ràng có một số rào cản pháp lý và quy định.
Các mô hình phần mềm nguồn mở khác sẽ cố gắng kiếm tiền dựa trên mức độ sử dụng. Cần lưu ý rằng nếu kịch bản này thành hiện thực, các mô hình phần mềm nguồn mở có thể bắt đầu trông ngày càng giống các đối tác tạo ra lợi nhuận web2 của chúng. Tuy nhiên, từ góc độ thực tế, thị trường sẽ được chia làm hai và một số mô hình này sẽ hoàn toàn miễn phí.
Khi bạn chọn một mô hình phần mềm nguồn mở, bạn có thể thực hiện các hoạt động phân cấp có thể kết hợp được trên đó. Ví dụ: bạn có thể sử dụng Ritual.net để suy luận AI và Theoriq.ai với tư cách là người dẫn đầu ban đầu về các tác nhân AI trên chuỗi có thể tổng hợp và tự trị (cả hai đều được hỗ trợ bởi Hack VC).
Thách thức lớn nhất mà AI Một trong những thách thức là có được dữ liệu phù hợp để đào tạo mô hình. Chúng tôi đã đề cập trước đó rằng có một số thách thức với việc đào tạo AI phi tập trung. Nhưng còn việc tận dụng web phi tập trung để lấy dữ liệu (sau đó có thể sử dụng dữ liệu này để đào tạo ở nơi khác, ngay cả trên nền tảng web2 truyền thống) thì sao?
Đây chính xác là những gì các công ty khởi nghiệp như Grass (được hỗ trợ bởi Hack VC) đang làm. Grass là mạng "thu thập dữ liệu" phi tập trung, trong đó các cá nhân đóng góp sức mạnh xử lý nhàn rỗi của máy để lấy dữ liệu cho việc đào tạo mô hình AI. Về lý thuyết, trong các ứng dụng quy mô lớn, loại thu thập dữ liệu này có thể vượt trội hơn so với nỗ lực nội bộ của bất kỳ công ty nào nhờ sức mạnh tính toán khổng lồ của một mạng lưới các nút được khuyến khích rộng lớn. Điều này không chỉ bao gồm việc nhận được nhiều dữ liệu hơn mà còn nhận được dữ liệu đó thường xuyên hơn để làm cho dữ liệu phù hợp hơn và cập nhật hơn. Vì các nút thu thập dữ liệu này có bản chất phi tập trung và không thuộc về một địa chỉ IP duy nhất nên gần như không thể ngăn chặn đội quân thu thập dữ liệu phi tập trung này. Ngoài ra, họ còn có một mạng lưới gồm những người dọn dẹp và chuẩn hóa dữ liệu để làm cho dữ liệu trở nên hữu ích sau khi được thu thập thông tin.
Sau khi có dữ liệu, bạn cũng cần một vị trí lưu trữ trên chuỗi và LLM (Mô hình ngôn ngữ lớn) được tạo bằng dữ liệu đó. Về vấn đề này, 0g.AI là người dẫn đầu sớm. Đây là giải pháp lưu trữ web3 hiệu suất cao được tối ưu hóa cho AI, rẻ hơn đáng kể so với AWS (một thành công tài chính khác cho Web3 AI), đồng thời đóng vai trò là nền tảng sẵn có dữ liệu cho cơ sở lớp 2, AI, v.v.
Cần lưu ý rằng vai trò của dữ liệu trong web3 AI có thể thay đổi trong tương lai. Hiện tại, hiện trạng của LLM là sử dụng dữ liệu để huấn luyện trước mô hình và cải thiện nó theo thời gian với nhiều dữ liệu hơn. Tuy nhiên, do dữ liệu trên Internet thay đổi theo thời gian thực nên các mô hình này luôn hơi lỗi thời nên phản hồi của suy luận LLM hơi không chính xác.
Một mô hình mới có thể phát triển trong tương lai là dữ liệu "thời gian thực". Khái niệm này là khi LLM được yêu cầu suy luận, LLM có thể sử dụng dữ liệu bằng cách đưa vào đó dữ liệu được thu thập từ internet trong thời gian thực. Bằng cách này, LLM sẽ sử dụng dữ liệu mới nhất. Grass cũng đang nghiên cứu vấn đề này.
Chúng tôi hy vọng phân tích này sẽ giúp bạn suy nghĩ về hứa hẹn của web3 AI Giúp ích khi tiếp xúc với thực tế. Đây chỉ là điểm khởi đầu để thảo luận và lĩnh vực này đang thay đổi nhanh chóng, vì vậy, hãy tham gia và bày tỏ quan điểm của bạn vì chúng ta muốn cùng nhau tiếp tục học hỏi và xây dựng.
AI phi tập trung có thể là lĩnh vực phát triển nhanh nhất mà chúng ta sẽ thấy trong thế giới tiền điện tử.
JinseFinanceBlockchain và máy học rõ ràng có nhiều điểm chung: một là công nghệ tạo ra niềm tin, hai là công nghệ rất cần sự tin tưởng.
JinseFinanceĐánh thức khả năng tư duy phản biện và kiểm soát sự can thiệp của cảm xúc là công cụ giúp chúng ta vững bước tiến về phía trước trong thế giới mã hóa, đồng thời là vũ khí lợi hại nhất mà con người có thể sở hữu và chống trả khi đối mặt với thách thức của AI.
JinseFinanceTrong một thế giới hỗn loạn, âm nhạc là ngôi nhà của tâm hồn. Nó là lối thoát cho cảm xúc và là liều thuốc xoa dịu tâm hồn. Trong giai điệu âm nhạc, chúng ta tìm thấy sự cộng hưởng và chạm tới những chiều sâu cảm xúc không thể diễn tả bằng lời.
JinseFinanceViệc ứng dụng AI trong giáo dục mang lại cả cơ hội và thách thức. Mặc dù cung cấp dịch vụ học tập được cá nhân hóa nhưng việc xem xét cẩn thận quyền riêng tư và bảo mật dữ liệu của học sinh là điều cần thiết. Những nỗ lực hợp tác từ chính phủ liên bang và tiểu bang, cùng với sự tham gia của phụ huynh, là rất quan trọng để khai thác một cách có trách nhiệm và đạo đức những lợi ích của AI trong giáo dục.
Cheng YuanNhững gã khổng lồ công nghệ của Trung Quốc, bao gồm Baidu, Xiaomi và Kuaishou, đang vượt qua các thách thức kinh tế trong khi hợp tác AI với Mỹ. Vũ điệu tinh tế giữa thách thức và tiến bộ đặt ra câu hỏi về tương lai của sự đổi mới toàn cầu.
BerniceTạo sự cân bằng giữa việc khai thác các lợi thế của AI và giải quyết các thách thức tiềm ẩn vẫn là khía cạnh then chốt của động lực phát triển này.
CatherineCác sàn giao dịch tiền điện tử đang sa thải nhân viên như một phần trong các biện pháp cắt giảm chi phí của họ.
BeincryptoQua đêm, 21 triệu đô la đã được lấy từ Hoán đổi chuyển tuyến DEX đa chuỗi.
OthersSự hợp tác NFT đầu tiên của Snoop với nghệ sĩ đa phương tiện kỹ thuật số Coldie, “Dogg phi tập trung,” đã được phát hành hôm nay trên SuperRare.
Cointelegraph