Tóm tắt
Cạnh tranh sản phẩm trong kỷ nguyên AI không thể tách rời khía cạnh tài nguyên (sức mạnh tính toán, dữ liệu, v.v.), đặc biệt Nó được hỗ trợ bởi phía tài nguyên ổn định.
Đào tạo/lặp lại mô hình cũng yêu cầu một số lượng lớn mục tiêu người dùng (IP) để giúp cung cấp dữ liệu nhằm tạo ra sự thay đổi về chất về hiệu quả của mô hình.
Sự kết hợp với Web3 có thể giúp các nhóm khởi nghiệp AI vừa và nhỏ vượt qua những gã khổng lồ về AI truyền thống.
Đối với hệ sinh thái DePIN, các tài nguyên như sức mạnh tính toán và băng thông xác định giới hạn dưới (tích hợp sức mạnh tính toán đơn giản không có hào); ứng dụng và tối ưu hóa chuyên sâu của các mô hình AI (tương tự như BitTensor) Các kích thước như chuyên môn hóa (Render, Hivemaper) và việc sử dụng dữ liệu hiệu quả sẽ xác định giới hạn trên của dự án.
Trong bối cảnh AI+DePIN, suy luận và tinh chỉnh mô hình cũng như thị trường mô hình AI di động sẽ nhận được sự chú ý.
Phân tích thị trường AI và ba câu hỏi
< p style="text-align: left;">Theo thống kê, từ tháng 9 năm 2022, trước thời điểm ChatGPT ra đời, đến tháng 8 năm 2023, 50 sản phẩm AI hàng đầu thế giới đã tạo ra hơn 24 tỷ lượt truy cập, trung bình là Tăng trưởng hàng tháng là 236,3 triệu lần.
Đằng sau sự thịnh vượng của các sản phẩm AI là sự phụ thuộc ngày càng tăng vào sức mạnh tính toán.
Nguồn: "Mô hình ngôn ngữ là những người học ít cơ hội"
Đại học Massachusetts Một bài báo của Đại học Amherst tuyên bố rằng "đào tạo một mô hình trí tuệ nhân tạo có thể thải ra lượng carbon tương đương với 5 chiếc ô tô trong suốt vòng đời của nó." Tuy nhiên, phân tích này chỉ liên quan đến một khóa đào tạo duy nhất. Khi mô hình được cải thiện thông qua đào tạo lặp đi lặp lại, việc sử dụng năng lượng sẽ tăng lên đáng kể.
Các mô hình ngôn ngữ mới nhất chứa hàng tỷ hoặc thậm chí hàng nghìn tỷ trọng số. Một mô hình phổ biến, GPT-3, có 175 tỷ thông số học máy. Việc sử dụng A100 sẽ cần 1.024 GPU, 34 ngày và 4,6 triệu USD để đào tạo mô hình.
Cạnh tranh sản phẩm trong thời kỳ hậu AI đã dần mở rộng thành cuộc chiến tranh tài nguyên tập trung vào sức mạnh tính toán.
Nguồn: AI đang gây hại cho hành tinh của chúng ta: giải quyết chi phí năng lượng đáng kinh ngạc của AI
Điều này dẫn đến ba câu hỏi: Thứ nhất, liệu một sản phẩm AI có đủ tài nguyên (sức mạnh tính toán, băng thông, v.v.), đặc biệt là tài nguyên ổn định để hỗ trợ nó hay không. Độ tin cậy như vậy đòi hỏi sự phân cấp với đủ sức mạnh tính toán. Trong lĩnh vực truyền thống, do khoảng cách về phía cầu chip, cộng với bức tường thế giới được xây dựng dựa trên chính sách và hệ tư tưởng, các nhà sản xuất chip đương nhiên có lợi thế và có thể đẩy giá lên đáng kể. Ví dụ: chip mô hình NVIDIA H100 đã tăng từ 36.000 USD lên 50.000 USD vào tháng 4 năm 2023, điều này càng làm tăng thêm chi phí cho nhóm đào tạo mô hình AI.
Vấn đề thứ hai là việc đáp ứng các điều kiện về phía tài nguyên giúp các dự án AI giải quyết được những nhu cầu cứng nhắc về phần cứng, nhưng việc đào tạo/lặp lại mô hình cũng đòi hỏi lượng người dùng mục tiêu rất lớn (IP) để giúp cung cấp thông tin. Sau khi kích thước mô hình vượt quá một ngưỡng nhất định, hiệu suất của các nhiệm vụ khác nhau sẽ có sự tăng trưởng đột phá.
Vấn đề thứ ba là: các nhóm khởi nghiệp AI vừa và nhỏ rất khó vượt qua ở các góc cua. Sự độc quyền về sức mạnh tính toán trên thị trường tài chính truyền thống cũng dẫn đến sự độc quyền về các giải pháp mô hình AI. Các nhà sản xuất mô hình AI lớn mà đại diện là OPenAI, Google Deepmind, v.v., đang tiếp tục xây dựng những con hào của riêng mình. Các nhóm AI vừa và nhỏ cần tìm kiếm sự cạnh tranh khác biệt hơn.
Có thể tìm thấy câu trả lời cho ba câu hỏi trên trong Web3. Trên thực tế, sự kết hợp giữa AI và Web3 đã có lịch sử lâu đời và hệ sinh thái tương đối thịnh vượng.
Hình ảnh bên dưới hiển thị một số lộ trình và dự án của hệ sinh thái AI+Web3 do Future Money Group sản xuất.
AI+DePIN
1. Giải pháp DePIN
DePIN là tên viết tắt của mạng cơ sở hạ tầng vật lý phi tập trung. Nó cũng là tập hợp các mối quan hệ sản xuất giữa con người và thiết bị, thông qua sự kết hợp giữa kinh tế mã thông báo và thiết bị phần cứng (như máy tính, camera ô tô, v.v.). ), để kết hợp một cách hữu cơ người dùng và thiết bị đồng thời đạt được sự vận hành có trật tự của mô hình kinh tế.
So với Web3 được định nghĩa rộng hơn, vì DePIN về bản chất có liên quan chặt chẽ hơn với các thiết bị phần cứng và doanh nghiệp truyền thống, DePIN đang thu hút các nhóm AI bên ngoài và các nhóm liên quan ở đó là những lợi thế tự nhiên về mặt vốn.
Việc theo đuổi sức mạnh tính toán phân tán và các ưu đãi dành cho những người đóng góp của hệ sinh thái DePIN sẽ giải quyết chính xác nhu cầu về các sản phẩm AI về sức mạnh tính toán và IP.
DePIN sử dụng kinh tế mã thông báo để thúc đẩy sức mạnh tính toán của thế giới (tính toán The giải quyết các trung tâm quyền lực & sức mạnh tính toán cá nhân nhàn rỗi) giảm nguy cơ tập trung sức mạnh tính toán, đồng thời giảm chi phí sử dụng sức mạnh tính toán cho nhóm AI.
Thành phần IP lớn và đa dạng của hệ sinh thái DePIN giúp mô hình AI đạt được sự đa dạng và khách quan của các kênh thu thập dữ liệu, thế là đủ. Nhiều nhà cung cấp dữ liệu cũng có thể đảm bảo cải thiện hiệu suất của mô hình AI.
Sự chồng chéo về chân dung giữa người dùng sinh thái DePIN và người dùng Web3 có thể giúp các dự án AI ổn định phát triển nhiều sản phẩm hỗ trợ Web3 hơn. Các mô hình AI độc đáo tạo ra sự cạnh tranh khác biệt, điều không có ở thị trường AI truyền thống.
Trong lĩnh vực Web2, việc thu thập dữ liệu mô hình AI thường đến từ các bộ dữ liệu công khai hoặc do chính nhà sản xuất mô hình thu thập, điều này sẽ bị ảnh hưởng bởi Bối cảnh văn hóa và những hạn chế về địa lý gây nên sự “bóp méo” chủ quan trong nội dung do mô hình AI tạo ra. Các phương pháp thu thập dữ liệu truyền thống bị hạn chế bởi hiệu quả và chi phí thu thập, gây khó khăn cho việc thu được quy mô mô hình lớn hơn (số lượng tham số, thời gian đào tạo và chất lượng dữ liệu). Đối với các mô hình AI, quy mô của mô hình càng lớn thì hiệu suất của mô hình càng dễ thay đổi về chất.
Nguồn: Khả năng nổi bật của Mô hình ngôn ngữ lớn: cách họ giải quyết những vấn đề mà họ không được đào tạo để giải quyết?
DePIN tình cờ có lợi thế tự nhiên trong lĩnh vực này . Lấy Hivemapper làm ví dụ, nó được phân phối ở 1.920 khu vực trên thế giới và có gần 40.000 cộng tác viên đang cung cấp dữ liệu cho MAP AI (mô hình AI bản đồ).
Sự kết hợp giữa AI và DePIN cũng có nghĩa là sự tích hợp giữa AI và Web3 đã đạt đến một tầm cao mới. Hiện nay, các dự án AI trên Web3 được sử dụng rộng rãi về mặt ứng dụng, hầu như chưa thoát khỏi sự phụ thuộc trực tiếp vào hạ tầng Web2 mà sẽ cấy ghép các mô hình AI hiện có dựa trên nền tảng sức mạnh tính toán truyền thống vào các dự án Web3. Hiếm khi tham gia.
Các phần tử Web3 luôn nằm ở cấp độ thấp hơn của chuỗi thức ăn và không thể thu được lợi nhuận vượt mức thực sự. Điều này cũng đúng đối với các nền tảng sức mạnh tính toán phân tán, sức mạnh tính toán thuần túy AI + không thể thực sự khai thác được tiềm năng của cả hai. Trong mối quan hệ này, các nhà cung cấp sức mạnh tính toán không thể thu được nhiều lợi nhuận vượt mức hơn và cấu trúc sinh thái quá đơn giản. Do đó, điều đó là không thể sử dụng kinh tế học mã thông báo để làm cho bánh đà chạy.
Nhưng khái niệm AI+DePIN đang phá vỡ mối quan hệ cố hữu này và chuyển sự chú ý của Web3 sang các mô hình AI rộng hơn.
2. Tóm tắt dự án AI+DePIN
< p style="text-align: left;">DePIN đương nhiên sở hữu thiết bị (sức mạnh tính toán, băng thông, thuật toán, dữ liệu), người dùng (nhà cung cấp dữ liệu đào tạo mô hình) và cơ chế khuyến khích sinh thái (mã thông báo) rất cần thiết cho AI. Kinh tế học).
Chúng ta có thể mạnh dạn đưa ra định nghĩa: cung cấp các điều kiện khách quan hoàn chỉnh (sức mạnh tính toán/băng thông/dữ liệu/IP) cho AI và cung cấp các mô hình AI (đào tạo/suy luận/Fine -tuning) các kịch bản và dự án được cung cấp tính kinh tế mã thông báo có thể được định nghĩa là AI+DePIN.
Future Money Group sẽ liệt kê các mô hình cổ điển sau đây của AI+DePIN để sắp xếp.
Chúng tôi chia thành bốn lĩnh vực: sức mạnh tính toán, băng thông, dữ liệu và các lĩnh vực khác theo các loại cung cấp tài nguyên khác nhau và cố gắng sắp xếp các dự án trong các lĩnh vực khác nhau.
2.1 Sức mạnh tính toán
Sức mạnh tính toán cuối cùng là AI+ Thành phần chính của lĩnh vực DePIN cũng là lĩnh vực có số lượng dự án lớn nhất hiện nay. Đối với các dự án năng lượng tính toán, các thành phần chính của sức mạnh tính toán là GPU (bộ xử lý đồ họa), CPU (bộ xử lý trung tâm) và TPU (chip học máy chuyên nghiệp). Trong số đó, TPU chủ yếu do Google xây dựng do độ khó sản xuất cao, chỉ cung cấp dịch vụ cho thuê năng lượng điện toán đám mây bên ngoài nên quy mô thị trường nhỏ. GPU là thành phần phần cứng tương tự như CPU nhưng chuyên nghiệp hơn. Nó có thể xử lý các phép toán phức tạp chạy song song hiệu quả hơn CPU thông thường. Ban đầu GPU được thiết kế để xử lý các tác vụ kết xuất đồ họa trong trò chơi và hoạt hình, nhưng giờ đây chúng được sử dụng cho nhiều mục đích hơn thế. Vì vậy, GPU hiện là nguồn cung cấp sức mạnh tính toán chính cho thị trường.
Do đó, nhiều dự án AI+DePIN mà chúng ta có thể thấy về mặt sức mạnh tính toán chuyên về đồ họa và kết xuất video hoặc các trò chơi liên quan. Điều này là do đặc điểm của GPU.
Từ góc độ toàn cầu, các nhà cung cấp sức mạnh tính toán chính cho các sản phẩm AI+DePIN bao gồm ba phần: nhà cung cấp dịch vụ sức mạnh điện toán đám mây truyền thống; các cá nhân nhàn rỗi Sức mạnh tính toán ; sức mạnh tính toán riêng. Trong số đó, các nhà cung cấp dịch vụ điện toán đám mây chiếm thị phần lớn nhất, tiếp theo là sức mạnh điện toán cá nhân nhàn rỗi. Điều này có nghĩa là những sản phẩm như vậy thường đóng vai trò trung gian về năng lực tính toán. Về phía nhu cầu là các nhóm phát triển mô hình AI khác nhau.
Hiện tại, trong thể loại này, gần như 100% sức mạnh tính toán không thể được sử dụng trong thực tế và hầu hết thời gian đều ở trạng thái rảnh. Ví dụ: trong Mạng Akash, khoảng 35% sức mạnh tính toán hiện đang được sử dụng và phần còn lại của sức mạnh tính toán không hoạt động. io.net cũng ở trong tình trạng tương tự.
Điều này có thể là do số lượng yêu cầu đào tạo mô hình AI hiện tại còn ít và đó cũng là lý do tại sao AI+DePIN có thể cung cấp chi phí điện năng tính toán rẻ. Khi thị trường AI mở rộng trong tương lai, tình trạng này sẽ được cải thiện.
Mạng Akash: Thị trường dịch vụ đám mây ngang hàng phi tập trung
Akash Network là thị trường dịch vụ đám mây ngang hàng phi tập trung, thường được gọi là Airbnb của các dịch vụ đám mây. Mạng Akash cho phép người dùng và công ty thuộc mọi quy mô sử dụng dịch vụ của họ một cách nhanh chóng, ổn định và giá cả phải chăng.
Tương tự như Render, Akash cũng cung cấp cho người dùng các dịch vụ như triển khai, cho thuê GPU và đào tạo mô hình AI.
Vào tháng 8 năm 2023, Akash ra mắt Supercloud, cho phép các nhà phát triển đặt mức giá mà họ sẵn sàng trả để triển khai các mô hình AI của mình, trong khi những nhà phát triển có sức mạnh tính toán bổ sung lưu trữ mô hình của người dùng. Tính năng này rất giống với Airbnb, cho phép nhà cung cấp thuê hết công suất chưa sử dụng.
Thông qua đấu thầu mở, các nhà cung cấp tài nguyên được khuyến khích mở các tài nguyên điện toán nhàn rỗi trong mạng của họ, Akash Network đạt được mục tiêu sử dụng tài nguyên hiệu quả hơn, từ đó cung cấp các nhu cầu tài nguyên mà Fang đưa ra giá cả cạnh tranh hơn.
Tổng số GPU sinh thái Akash hiện tại là 176 GPU, nhưng số lượng hoạt động là 62 và mức độ hoạt động là 35%, thấp hơn mức 50% vào tháng 9 năm 2023. Thu nhập ước tính hàng ngày là khoảng 5.000 USD. Token AKT có chức năng cầm cố, người dùng có thể tham gia duy trì an ninh mạng bằng cách cầm cố token và nhận được lợi nhuận hàng năm khoảng 13,15%.
Hiệu suất dữ liệu của Akash trong lĩnh vực AI+DePIN hiện tại tương đối cao và FDV trị giá 700 triệu USD của nó có nhiều dư địa tăng trưởng hơn so với Render và BitTensor.
Akash cũng đã kết nối với Mạng con của BitTensor để mở rộng không gian phát triển của riêng mình. Nhìn chung, dự án của Akash, là một trong số những dự án chất lượng cao trên lộ trình AI+DePIN, có hiệu suất cơ bản tuyệt vời.
io.net: AI+DePIN với số lượng GPU lớn nhất
io.net là mạng điện toán phi tập trung cho phép phát triển, thực thi và mở rộng quy mô các ứng dụng ML (machine learning) trên chuỗi khối Solana, tận dụng cụm GPU lớn nhất thế giới để cho phép các kỹ sư machine learning thuê và truy cập dịch vụ đám mây phân tán sức mạnh tính toán với chi phí chỉ bằng một phần nhỏ của các dịch vụ tập trung.
Theo dữ liệu chính thức, io.net có hơn 1 triệu GPU ở chế độ chờ. Ngoài ra, sự hợp tác của io.net với Render cũng mở rộng tài nguyên GPU sẵn có để triển khai.
Hệ sinh thái io.net có nhiều GPU, nhưng hầu hết chúng đều đến từ sự hợp tác với nhiều nhà cung cấp điện toán đám mây khác nhau và quyền truy cập vào các nút cá nhân, đồng thời tốc độ nhàn rỗi tương đối cao.Cao Lấy RTX A6000, vốn có số lượng GPU lớn nhất làm ví dụ, chỉ có 11% (927) trong số 8426 GPU được sử dụng, trong khi hầu như không có ai sử dụng nhiều loại GPU hơn. Nhưng một trong những ưu điểm chính của các sản phẩm io.net hiện nay là giá thành rẻ, so với chi phí gọi GPU của Akash là 1,5 USD/giờ thì chi phí thấp nhất trên io.net có thể từ 0,1-1 USD.
Trong tương lai, io.net cũng sẽ xem xét cho phép các nhà cung cấp GPU trong hệ sinh thái IO tăng cơ hội được sử dụng bằng cách thế chấp tài sản gốc. Bạn đầu tư càng nhiều tài sản thì cơ hội được chọn càng lớn. Đồng thời, các kỹ sư AI cầm cố tài sản gốc cũng có thể sử dụng GPU hiệu suất cao.
Xét về quy mô truy cập GPU, io.net là dự án lớn nhất trong số 10 dự án được liệt kê trong bài viết này. Ngoài tốc độ nhàn rỗi, số lượng GPU đang sử dụng cũng đứng đầu. Về mặt kinh tế mã thông báo, mã thông báo gốc io.net và mã thông báo giao thức IO sẽ được ra mắt vào quý đầu tiên của năm 2024, với nguồn cung tối đa là 22.300.000. Người dùng sẽ bị tính phí 5% khi sử dụng mạng, khoản phí này sẽ được sử dụng trong Burn token IO hoặc để cung cấp các ưu đãi cho người dùng mới ở cả bên cung và bên cầu. Mô hình mã thông báo có đặc điểm kéo lên rõ ràng, vì vậy mặc dù io.net chưa phát hành mã thông báo nhưng thị trường rất phổ biến.
Golem: Thị trường năng lượng tính toán dựa trên CPU
Golem là một thị trường sức mạnh điện toán phi tập trung cho phép mọi người chia sẻ và tổng hợp các tài nguyên máy tính bằng cách tạo ra một mạng lưới các tài nguyên được chia sẻ. Golem cung cấp cho người dùng các kịch bản cho thuê năng lượng điện toán.
Thị trường Golem bao gồm ba bên, đó là nhà cung cấp năng lượng tính toán, bên cầu sức mạnh tính toán và nhà phát triển phần mềm. Người yêu cầu sức mạnh tính toán gửi nhiệm vụ tính toán và mạng Golem phân bổ nhiệm vụ tính toán cho nhà cung cấp sức mạnh tính toán phù hợp (cung cấp RAM, dung lượng ổ cứng, lõi CPU, v.v.). Sau khi nhiệm vụ tính toán hoàn thành, cả hai bên thực hiện thanh toán và thanh toán thông qua Token.
Golem chủ yếu sử dụng CPU để xếp chồng sức mạnh tính toán, mặc dù chi phí thấp hơn so với GPU (Inter i9 14900k có giá khoảng 700 USD, trong khi GPU A100 có giá 12.000-25.000 USD). Tuy nhiên, CPU không thể thực hiện các hoạt động đồng thời cao và tiêu thụ năng lượng cao hơn. Do đó, việc sử dụng CPU để thuê sức mạnh tính toán có thể có câu chuyện yếu hơn một chút so với dự án GPU.
Magnet AI: Tài sản hóa các mô hình AI
Magnet AI Bằng cách tích hợp các nhà cung cấp sức mạnh tính toán GPU, chúng tôi cung cấp dịch vụ đào tạo mô hình cho các nhà phát triển các mô hình AI khác nhau. Không giống như các sản phẩm AI+DePIN khác, Magent AI cho phép các nhóm AI khác nhau phát hành mã thông báo ERC-20 dựa trên mô hình của riêng họ. Người dùng có thể nhận được các airdrop mã thông báo mô hình khác nhau và phần thưởng bổ sung bằng cách tham gia vào các tương tác mô hình khác nhau.
Vào quý 2 năm 2024, Magent AI sẽ ra mắt trên Polygon zkEVM & Arbrium.
Nó có phần giống với io.net. Nó chủ yếu tích hợp sức mạnh tính toán GPU và cung cấp dịch vụ đào tạo mô hình cho các nhóm AI.
Sự khác biệt là io.net tập trung nhiều hơn vào việc tích hợp tài nguyên GPU, khuyến khích các cụm GPU, doanh nghiệp và cá nhân khác nhau đóng góp GPU trong khi nhận được phần thưởng. ổ điện tính toán.
Magent AI dường như tập trung nhiều hơn vào các mô hình AI. Do sự tồn tại của mã thông báo mô hình AI, nó có thể tập trung vào mã thông báo và airdrop để hoàn thành việc thu hút và giữ chân người dùng, và Thông qua cách tài sản hóa các mô hình AI này, chúng tôi sẽ thúc đẩy sự gia nhập của các nhà phát triển AI.
Tóm tắt đơn giản: Magnet tương đương với việc xây dựng một thị trường bằng GPU, nơi bất kỳ nhà phát triển AI hoặc nhà triển khai mô hình nào cũng có thể phát hành mã thông báo ERC-20. Người dùng có thể nhận được các mã thông báo khác nhau hoặc tích cực nắm giữ các token khác nhau.
Render: Người chơi chuyên nghiệp về mô hình AI kết xuất đồ họa
Render Network là nhà cung cấp giải pháp kết xuất dựa trên GPU phi tập trung nhằm kết nối người sáng tạo và tài nguyên GPU nhàn rỗi thông qua công nghệ chuỗi khối để loại bỏ các giới hạn phần cứng, giảm thời gian và chi phí, đồng thời cung cấp quản lý quyền kỹ thuật số, thúc đẩy hơn nữa sự phát triển của Metaverse.
Theo sách trắng Kết xuất, dựa trên Kết xuất, các nghệ sĩ, kỹ sư và nhà phát triển có thể tạo ra một loạt ứng dụng AI, chẳng hạn như tạo nội dung 3D được AI hỗ trợ và Kết xuất được tăng tốc AI của toàn bộ hệ thống và sử dụng dữ liệu biểu đồ cảnh 3D của Render để đào tạo các mô hình AI liên quan.
Render cung cấp SDK Mạng kết xuất cho các nhà phát triển AI. Các nhà phát triển sẽ có thể sử dụng GPU phân tán của Kết xuất để thực hiện kết xuất từ NeRF (Trường phản chiếu thần kinh) và các tác vụ tính toán AI của LightField từ quy trình đến các nhiệm vụ AI tổng quát.
Theo báo cáo của Global Market Insights, thị trường kết xuất 3D toàn cầu dự kiến sẽ đạt 6 tỷ USD. So với Render trị giá 2,2 tỷ USD của FDV, vẫn còn chỗ để phát triển.
Hiện tại, không thể tìm thấy dữ liệu cụ thể về Render dựa trên GPU, nhưng do công ty OTOY đứng sau Render đã nhiều lần cho thấy mối tương quan của họ với Apple; cùng với đó là OctaneRender, công cụ kết xuất hàng đầu của OTOY, hỗ trợ tất cả các bộ công cụ 3D hàng đầu trong lĩnh vực VFX, trò chơi, thiết kế chuyển động, trực quan hóa và mô phỏng kiến trúc, bao gồm hỗ trợ riêng cho các công cụ Unity3D và Unreal.
Cũng như Google và Microsoft đã tham gia mạng RNDR. Kết xuất đã xử lý gần 250.000 yêu cầu kết xuất vào năm 2021 và các nghệ sĩ trong hệ sinh thái đã tạo ra doanh thu khoảng 5 tỷ USD thông qua NFT.
Do đó, định giá tham chiếu của Render nên được so sánh với tiềm năng của thị trường kết xuất toàn màn hình (khoảng 30 tỷ USD). Kết hợp với mô hình kinh tế BME (Cân bằng đốt và đúc tiền), Render vẫn còn một số dư địa để tăng trưởng, cho dù xét về giá token thuần túy hay FDV.
Clore.ai: Kết xuất video
Clore.ai Nó là một nền tảng dựa trên PoW cung cấp dịch vụ cho thuê sức mạnh tính toán GPU. Người dùng có thể thuê GPU của riêng mình cho các nhiệm vụ như đào tạo AI, kết xuất video và khai thác tiền điện tử và những người khác có thể có được sức mạnh này với mức giá thấp.
Phạm vi kinh doanh bao gồm: đào tạo trí tuệ nhân tạo, kết xuất phim, VPN, khai thác tiền điện tử, v.v. Khi có nhu cầu về các dịch vụ sức mạnh tính toán cụ thể, các nhiệm vụ do mạng giao sẽ được hoàn thành; nếu không có nhu cầu về dịch vụ sức mạnh tính toán, mạng sẽ tìm ra loại tiền điện tử có năng suất khai thác cao nhất tại thời điểm đó và tham gia khai thác.
Số lượng GPU của Clore.ai đã tăng từ 2.000 lên khoảng 9.000 trong sáu tháng qua, nhưng xét về số lượng tích hợp GPU, Clore.ai vượt qua Akash. Tuy nhiên, FDV trên thị trường thứ cấp của nó chỉ bằng khoảng 20% Akash.
Về mô hình mã thông báo, CLORE áp dụng chế độ khai thác POW, không cần khai thác trước và ICO. 50% mỗi khối được phân bổ cho người khai thác và 40% cho người khai thác Đối với người thuê, 10% được chia cho đội.
Tổng số lượng mã thông báo là 1,3 tỷ. Việc khai thác sẽ bắt đầu vào tháng 6 năm 2022 và về cơ bản sẽ được lưu hành đầy đủ vào năm 2042. Số lượng lưu hành hiện tại là khoảng 220 triệu. . Nguồn cung lưu hành vào cuối năm 2023 sẽ vào khoảng 250 triệu, chiếm 20% tổng nguồn cung token. Do đó, FDV thực tế hiện tại là 31 triệu USD. Về lý thuyết, Clore.ai bị định giá thấp nghiêm trọng. Tuy nhiên, do tính kinh tế mã thông báo của nó, tỷ lệ phân bổ cho người khai thác là 50% và tỷ lệ khai thác, bán và huy động quá cao, do đó giá tiền tệ có tiềm năng tăng sức đề kháng lớn.
Livepeer: Hiển thị video, lý luận
Livepeer dựa trên trên giao thức video phi tập trung của Ethereum trao thưởng cho các bên xử lý nội dung video một cách an toàn ở mức giá hợp lý.
Theo các quan chức, Livepeer có hàng nghìn tài nguyên GPU để chuyển mã hàng triệu phút video mỗi tuần.
Livepeer có thể áp dụng cách tiếp cận "mạng chính" + "mạng con", cho phép các nhà khai thác nút khác nhau tạo mạng con và rút tiền thanh toán trên mạng chính Livepeer để thực hiện các tác vụ này. Ví dụ: mạng con video AI được giới thiệu để đào tạo mô hình AI đặc biệt trong lĩnh vực kết xuất video.
Livepeer sau này sẽ mở rộng các phần liên quan đến AI từ đào tạo mô hình đơn giản đến suy luận và tinh chỉnh.
Aethir: Tập trung vào trò chơi trên nền tảng đám mây và AI
Aethir Đây là một nền tảng chơi game trên nền tảng đám mây và cơ sở hạ tầng đám mây phi tập trung (DCI) được xây dựng đặc biệt cho các công ty chơi game và trí tuệ nhân tạo. Nó giúp thay mặt người chơi cung cấp tải điện toán GPU nặng, đảm bảo người chơi có được trải nghiệm độ trễ cực thấp ở mọi nơi và trên mọi thiết bị.
Đồng thời, Aethir cung cấp các dịch vụ triển khai bao gồm GPU, CPU, đĩa và các thành phần khác. Vào ngày 27 tháng 9 năm 2023, Aethir chính thức cung cấp dịch vụ thương mại về trò chơi đám mây và sức mạnh điện toán AI cho khách hàng toàn cầu, tích hợp sức mạnh tính toán phi tập trung để hỗ trợ sức mạnh tính toán cho các trò chơi và mô hình AI trên nền tảng riêng của mình.
Trò chơi trên đám mây loại bỏ các hạn chế của phần cứng thiết bị đầu cuối và hệ điều hành bằng cách chuyển các yêu cầu về sức mạnh tính toán để kết xuất sang đám mây, mở rộng đáng kể quy mô cơ sở người chơi tiềm năng.
Băng thông 2,2
Băng thông được DePIN cung cấp cho AI Một trong những nguồn tài nguyên, thị trường băng thông toàn cầu sẽ vượt 50 tỷ USD vào năm 2021 và được dự đoán sẽ vượt 100 tỷ USD vào năm 2027.
Do số lượng và độ phức tạp ngày càng tăng của các mô hình AI, việc đào tạo mô hình thường áp dụng nhiều chiến lược tính toán song song khác nhau, chẳng hạn như song song dữ liệu, song song đường ống, song song tensor, vân vân. . Trong các chế độ tính toán song song này, tầm quan trọng của hoạt động giao tiếp tập thể giữa nhiều thiết bị máy tính ngày càng trở nên quan trọng. Vì vậy, khi xây dựng các cụm đào tạo quy mô lớn cho các mô hình AI lớn, vai trò của băng thông mạng trở nên nổi bật.
Quan trọng hơn, tài nguyên băng thông ổn định và đủ tin cậy có thể đảm bảo phản hồi đồng thời giữa các nút khác nhau, về mặt kỹ thuật tránh sự xuất hiện của một điểm kiểm soát duy nhất ( Ví dụ: Falcon sử dụng mô hình mạng chuyển tiếp có độ trễ thấp + băng thông cao để tìm kiếm sự cân bằng giữa độ trễ và yêu cầu về băng thông), cuối cùng đảm bảo độ tin cậy và khả năng chống kiểm duyệt của toàn bộ mạng.
Grass: Sản phẩm khai thác băng thông tương thích với thiết bị di động
Grass là sản phẩm chủ lực của Wynd Network, tập trung vào dữ liệu mạng mở và huy động được 1 triệu USD tài chính vào năm 2023. Grass cho phép người dùng kiếm thu nhập thụ động từ kết nối Internet của họ bằng cách bán các tài nguyên mạng không sử dụng.
Người dùng có thể bán băng thông Internet trên Grass, cung cấp dịch vụ băng thông cho các nhóm phát triển AI có nhu cầu, giúp đào tạo mô hình AI và nhận tiền lãi token.
Hiện tại Grass sắp ra mắt phiên bản di động. Do phiên bản di động và phiên bản PC có địa chỉ IP khác nhau nên người dùng Grass sẽ được cung cấp nhiều thông tin hơn cho nền tảng cùng lúc Nhiều địa chỉ IP hơn và Grass sẽ thu thập nhiều địa chỉ IP hơn để mang lại hiệu quả dữ liệu tốt hơn cho việc đào tạo mô hình AI.
Hiện tại, Grass có hai cách để cung cấp địa chỉ IP: chương trình mở rộng tải xuống PC và tải xuống APP di động. (PC và thiết bị đầu cuối di động cần phải ở trên các mạng khác nhau)
p >
Tính đến ngày 29 tháng 11 năm 2023, nền tảng Grass có 103.000 lượt tải xuống và 1.450.000 địa chỉ IP duy nhất.
Thiết bị đầu cuối di động và thiết bị đầu cuối PC có nhu cầu khác nhau về AI, do đó các hạng mục đào tạo mô hình AI áp dụng cũng khác nhau.
Ví dụ: thiết bị đầu cuối di động có một lượng lớn dữ liệu về tối ưu hóa hình ảnh, nhận dạng khuôn mặt, dịch thời gian thực, trợ lý giọng nói, tối ưu hóa hiệu suất thiết bị, v.v. Đây là những khó khăn để cung cấp về phía PC.
Hiện tại, Grass đang ở vị trí khá sớm trong việc đào tạo mô hình AI di động. Xét đến tiềm năng to lớn của thị trường di động trên quy mô toàn cầu, triển vọng của Grass rất đáng được quan tâm.
Tuy nhiên, Grass vẫn chưa cung cấp thông tin hiệu quả hơn về mô hình AI. Người ta suy đoán rằng khai thác tiền xu có thể là phương thức hoạt động chính trong thời gian đầu sân khấu.
Mạng Meson: Lớp 2 Tương thích với thiết bị di động
Meson Network là mạng tăng tốc lưu trữ thế hệ tiếp theo dựa trên blockchain Lớp 2. Nó tổng hợp các máy chủ nhàn rỗi thông qua khai thác, lên lịch tài nguyên băng thông và phục vụ các thị trường tăng tốc phương tiện truyền phát và tệp, bao gồm các trang web truyền thống, video, chương trình phát sóng trực tiếp và lưu trữ Blockchain khu vực giải pháp.
Chúng ta có thể hiểu Mạng Meson như một nhóm tài nguyên băng thông và cả hai phía của nhóm này có thể được coi là bên cung và bên cầu. Cái trước đóng góp băng thông và cái sau sử dụng băng thông.
Trong cấu trúc sản phẩm cụ thể của Meson, có hai sản phẩm (GatewayX, GaGaNode) chịu trách nhiệm nhận băng thông do các nút khác nhau trên toàn thế giới đóng góp và một sản phẩm (IPCola ) Nó chịu trách nhiệm kiếm tiền từ các tài nguyên băng thông tổng hợp này.
GatewayX: Chủ yếu tích hợp băng thông nhàn rỗi thương mại, chủ yếu nhắm vào các trung tâm IDC.
Từ bảng điều khiển dữ liệu của Meson, chúng tôi có thể thấy rằng IDC hiện được kết nối có hơn 20.000 nút trên khắp thế giới và đã hình thành khả năng truyền dữ liệu 12,5Tib/s .
GaGaNode: Chủ yếu tích hợp băng thông nhàn rỗi của các thiết bị cá nhân và dân dụng, đồng thời cung cấp hỗ trợ điện toán biên.
IPCola: Kênh kiếm tiền của Meson, thực hiện các nhiệm vụ như phân bổ IP và băng thông.
Meson hiện tiết lộ doanh thu nửa năm của mình là hơn một triệu đô la Mỹ. Theo thống kê trang web chính thức, Meson có 27.116 nút IDC và dung lượng IDC là 17,7TB/s.
Meson hiện dự kiến sẽ phát hành token vào tháng 3-tháng 4 năm 2024, nhưng đã công bố tính kinh tế của token.
Tên mã thông báo: MSN, nguồn cung ban đầu là 100 triệu, tỷ lệ lạm phát khai thác là 5% trong năm đầu tiên, giảm 0,5% mỗi năm.
Mạng 3: Tích hợp với mạng Sei
Mạng 3 là Một công ty AI đã xây dựng AI Lớp 2 chuyên dụng và tích hợp nó với Sei. Thông qua tối ưu hóa và nén thuật toán mô hình AI, điện toán biên và điện toán quyền riêng tư, chúng tôi cung cấp dịch vụ cho các nhà phát triển AI trên toàn thế giới, giúp các nhà phát triển đào tạo và xác minh mô hình trên quy mô lớn một cách nhanh chóng, thuận tiện và hiệu quả.
Theo dữ liệu trang web chính thức, Network3 hiện có hơn 58.000 nút hoạt động, cung cấp 2PB dịch vụ băng thông. Đạt được sự hợp tác với 10 hệ sinh thái blockchain bao gồm Alchemy Pay, ETHSign và IoTeX.
2.3 Dữ liệu
Khác với sức mạnh tính toán và băng thông, Thị trường cung cấp thiết bị đầu cuối dữ liệu hiện nay tương đối nhỏ. Và có tính chuyên nghiệp rõ rệt. Nhóm nhu cầu thường là chính dự án hoặc nhóm phát triển mô hình AI thuộc các hạng mục liên quan. Chẳng hạn như Hivemapper.
Việc đào tạo mô hình bản đồ của riêng bạn thông qua việc cung cấp dữ liệu của riêng bạn không khó về mặt logic, vì vậy, chúng tôi có thể cố gắng mở rộng tầm nhìn của mình sang một thứ tương tự như các dự án Hivemapper DePIN, chẳng hạn như DIMO, Natix và FrodoBots.
Hivemapper: Tập trung phát triển các sản phẩm Map AI của riêng mình
HiveMapper là một trong những khái niệm DePIN hàng đầu trên Solana và cam kết tạo ra một "Google Map" phi tập trung. Người dùng có thể nhận được mã thông báo HONEY bằng cách mua máy ghi âm lái xe do HiveMapper phát hành cũng như bằng cách sử dụng và chia sẻ hình ảnh thời gian thực với HiveMapper.
Giới thiệu về Hivemapper, Future Money Group từng báo cáo trong "Báo cáo nghiên cứu FMG: Tăng gấp 19 lần trong 30 ngày, hiểu biết về ngành DePIN ô tô do Hivemapper đại diện" Mô tả chi tiết sẽ không được trình bày chi tiết ở đây. Lý do Hivemapper được đưa vào phần AI+DePIN là vì Hivemapper đã ra mắt MAP AI, một công cụ sản xuất bản đồ AI có thể tạo ra dữ liệu bản đồ chất lượng cao dựa trên dữ liệu được thu thập bởi máy ghi lái xe.
Map AI đã thiết lập một vai trò mới, người huấn luyện AI. Vai trò này bao gồm những người đóng góp dữ liệu máy ghi lái xe trước đây và người đào tạo mô hình Map AI.
Hivemapper không cố tình chuyên môn hóa các yêu cầu của mình đối với người đào tạo mô hình AI. Thay vào đó, nó áp dụng các ngưỡng tham gia thấp như nhiệm vụ từ xa, đoán vị trí địa lý và các hành vi trò chơi tương tự khác để cho phép nhiều địa chỉ IP tham gia hơn. Tài nguyên IP của dự án DePIN càng phong phú thì AI sẽ thu thập dữ liệu hiệu quả hơn. Người dùng tham gia đào tạo AI cũng có thể nhận được phần thưởng mã thông báo HONEY.
Các kịch bản ứng dụng AI trong Hivemapper tương đối phù hợp và Hivemapper không hỗ trợ đào tạo mô hình của bên thứ ba. Map AI nhằm mục đích tối ưu hóa các sản phẩm bản đồ của riêng mình. Do đó, logic đầu tư vào Hivemapper sẽ không thay đổi.
Tiềm năng
DIMO: vào nội thất của ô tô Thu thập dữ liệu
DIMO là nền tảng IoT dành cho ô tô được xây dựng trên Polygon cho phép người lái xe thu thập và chia sẻ dữ liệu về xe của họ, ghi lại. Dữ liệu bao gồm số km ô tô đã đi, tốc độ lái xe, theo dõi vị trí, áp suất lốp, tình trạng pin/động cơ, v.v.
Bằng cách phân tích dữ liệu xe, nền tảng DIMO có thể dự đoán khi nào cần bảo trì và nhắc nhở người dùng kịp thời. Người lái xe không chỉ hiểu rõ hơn về phương tiện của họ mà còn có thể đóng góp dữ liệu cho hệ sinh thái của DIMO và nhận mã thông báo DIMO làm phần thưởng. Người sử dụng dữ liệu có thể trích xuất dữ liệu từ giao thức để hiểu hiệu suất của các bộ phận như pin, hệ thống lái tự động và bộ điều khiển.
Natix: Thu thập dữ liệu bản đồ được trao quyền riêng tư
Natix Đó là một mạng lưới phi tập trung được xây dựng bằng các bằng sáng chế về quyền riêng tư AI. Dựa trên các bằng sáng chế về quyền riêng tư AI, nó nhằm mục đích kết hợp thế giới với các thiết bị camera (điện thoại thông minh, máy bay không người lái, ô tô) để tạo ra mạng camera có độ bảo mật trung bình, đồng thời thu thập dữ liệu dưới cơ sở tuân thủ quyền riêng tư và phân tích bản đồ động phi tập trung. (DDMap) để điền nội dung.
Người dùng tham gia cung cấp dữ liệu có thể nhận được token và NFT để khuyến khích.
FrodoBots: một ứng dụng mạng phi tập trung dựa trên robot
FrodoBots là một trò chơi DePIN sử dụng rô-bốt di động làm người vận chuyển, thu thập dữ liệu ảnh hưởng qua camera và có một số thuộc tính xã hội nhất định.
Người dùng mua robot để tham gia vào quá trình trò chơi và tương tác với người chơi trên khắp thế giới. Đồng thời, camera riêng của robot cũng sẽ thu thập, tổng hợp dữ liệu đường đi và bản đồ.
Ba dự án trên đều có hai yếu tố: thu thập dữ liệu và cung cấp IP. Mặc dù chưa tiến hành đào tạo mô hình AI phù hợp nhưng chúng đều đóng vai trò giới thiệu về Các mô hình AI được cung cấp các điều kiện cần thiết. Các dự án này, bao gồm cả Hivemapper, yêu cầu camera thu thập dữ liệu và tạo thành một bản đồ hoàn chỉnh. Do đó, các mô hình AI thích ứng cũng bị giới hạn ở các lĩnh vực tập trung xây dựng bản đồ. Việc trao quyền cho các mô hình AI sẽ giúp các dự án xây dựng được hào nước cao hơn.
Điều cần lưu ý là bộ sưu tập camera thường gặp phải các vấn đề pháp lý như xâm phạm quyền riêng tư hai chiều: ví dụ như việc thu thập hình ảnh bên ngoài bằng camera bên ngoài ảnh hưởng đến định nghĩa về quyền chân dung của người qua đường và tầm quan trọng của người dùng đối với quyền riêng tư của họ. Ví dụ: Natix vận hành AI để bảo vệ quyền riêng tư.
2.4 Thuật toán
Sức mạnh tính toán, băng thông và dữ liệu tiêu điểm Sự khác biệt dựa trên khía cạnh tài nguyên, trong khi thuật toán tập trung vào mô hình AI. Bài viết này lấy BitTensor làm ví dụ, BitTensor không trực tiếp đóng góp dữ liệu hay sức mạnh tính toán mà thay vào đó nó lên lịch và sàng lọc các thuật toán khác nhau thông qua mạng blockchain và cơ chế khuyến khích, từ đó cho phép lĩnh vực AI hình thành một cuộc cạnh tranh tự do và một thị trường kiểu mẫu cho chia sẻ kiến thức.
Tương tự như OpenAI, BitTensor đặt mục tiêu đạt được hiệu suất suy luận ngang bằng với các mô hình khổng lồ truyền thống trong khi vẫn duy trì các đặc điểm phi tập trung của mô hình.
Con đường thuật toán có phần nâng cao và rất hiếm các dự án tương tự. Khi các mô hình AI, đặc biệt là các mô hình dựa trên Web3 xuất hiện, sự cạnh tranh giữa các mô hình sẽ trở nên bình thường.
Đồng thời, sự cạnh tranh giữa các mô hình cũng sẽ làm tăng tầm quan trọng của việc suy luận và tinh chỉnh ở hạ nguồn của ngành công nghiệp mô hình AI. Đào tạo mô hình AI chỉ là thượng nguồn của ngành AI, một mô hình cần được đào tạo trước và có trí tuệ ban đầu, trên cơ sở đó việc suy luận và điều chỉnh mô hình cẩn thận hơn (có thể hiểu là tối ưu hóa) được thực hiện trên mô hình trước đó cuối cùng có thể được sử dụng như một sản phẩm hoàn chỉnh Triển khai ở rìa. Các quy trình này đòi hỏi kiến trúc sinh thái phức tạp hơn và hỗ trợ sức mạnh tính toán. Điều đó cũng đồng nghĩa với việc tiềm năng phát triển là rất lớn.
BitTensor: mô hình AI oracle
BitTensor là một kiến trúc tương tự như hệ sinh thái học máy phi tập trung của mạng chính + mạng con Polkadot.
Logic hoạt động: Mạng con truyền thông tin hoạt động tới API Bittensor (vai trò tương tự như oracle), sau đó API truyền thông tin hữu ích đến mạng chính, và sau đó là mạng chính Phân phối Phần thưởng.
Mạng con BitTensor 32
Vai trò sinh thái của BitTensor:
Công cụ khai thác: Nó có thể hiểu là nhà cung cấp các thuật toán và mô hình AI khác nhau trên toàn thế giới, lưu trữ các mô hình AI và cung cấp cho mạng Bittensor; các loại mô hình khác nhau tạo thành các mạng con khác nhau.
Người xác minh: Người đánh giá trong mạng Bittensor. Đánh giá chất lượng và hiệu quả của các mô hình AI, xếp hạng các mô hình AI dựa trên hiệu suất thực hiện các nhiệm vụ cụ thể và giúp người tiêu dùng tìm ra giải pháp tốt nhất.
Người dùng: người dùng cuối cùng của mô hình AI do Bittensor cung cấp. Đó có thể là một cá nhân, hoặc có thể là các nhà phát triển đang tìm cách sử dụng các mô hình AI cho các ứng dụng.
Người đề cử: Ủy quyền mã thông báo cho một người xác minh cụ thể để thể hiện sự hỗ trợ hoặc bạn có thể ủy quyền mã thông báo cho những người xác minh khác nhau.
Chuỗi cung cầu AI mở: Một số người cung cấp các mô hình khác nhau, một số đánh giá các mô hình khác nhau và một số sử dụng kết quả do mô hình tốt nhất cung cấp.
Khác với các vai trò như "trung gian sức mạnh tính toán" như Akash và Render, BitTensor giống một "thị trường lao động" hơn, sử dụng các mô hình hiện có để tiếp thu nhiều hơn. được sử dụng để làm cho mô hình hợp lý hơn. Người khai thác và người xác nhận giống như "các bên xây dựng" và "người giám sát" hơn. Người dùng đặt câu hỏi, người khai thác đưa ra câu trả lời và người xác minh đánh giá chất lượng của câu trả lời và cuối cùng trả lại cho người dùng.
Mã thông báo BitTensor là TAO. Giá trị thị trường của TAO hiện chỉ đứng sau RNDR, nhưng do cơ chế phát hành dài hạn giảm một nửa trong bốn năm, tỷ lệ giá trị thị trường trên giá trị pha loãng hoàn toàn là thấp nhất trong số một số dự án, điều đó cũng có nghĩa là tổng lượng lưu hành của TAO hiện đang ở mức thấp. tương đối nhỏ, thấp nhưng đơn giá cao hơn. Điều này có nghĩa là giá trị thực tế của TAO bị đánh giá thấp.
Hiện tại rất khó tìm được mục tiêu định giá phù hợp. Nếu bắt đầu từ sự tương đồng về cấu trúc, Polkadot (khoảng 12 tỷ đô la Mỹ) là đối tượng tham chiếu và TAO đã có gần 8 lần tăng điểm.
Nếu chúng ta làm theo thuộc tính "oracle" và sử dụng Chainlink (14 tỷ USD) làm đối tượng tham chiếu, TAO sẽ có mức tăng gần 9 lần.
Kết luận
Nhìn chung, AI+DePIN thúc đẩy Nó có hiểu rõ sự thay đổi mô hình của xu hướng AI trong bối cảnh Web3, cho phép thị trường thoát ra khỏi suy nghĩ cố hữu về "AI có thể làm gì trong Web3?" và nghĩ về câu hỏi lớn hơn về "AI và Web3 mang đến cho thế giới?" câu hỏi.
Nếu Giám đốc điều hành NVIDIA Jen-Hsun Huang gọi việc phát hành các mẫu máy cỡ lớn là thời điểm "iPhone" của AI, thì sự kết hợp giữa AI và DePIN có nghĩa là Web3 thực sự chào đón Hãy đến với khoảnh khắc "iphone".
DePIN, với tư cách là trường hợp sử dụng hoàn thiện và được chấp nhận nhất của Web3 trong thế giới thực, đang khiến Web3 trở nên dễ được chấp nhận hơn.
Do sự chồng chéo một phần giữa các nút IP và trình phát Web3 trong dự án AI+DePIN, sự kết hợp của cả hai cũng đang giúp ngành tạo ra các mô hình của riêng mình và các mô hình thuộc sản phẩm Web3.AI. Điều này sẽ có lợi cho sự phát triển chung của ngành Web3 và mở ra những hướng đi mới cho ngành, chẳng hạn như lý luận và tinh chỉnh các mô hình AI cũng như phát triển các mô hình AI di động.
Một điểm thú vị là các sản phẩm AI+DePIN được liệt kê trong bài viết dường như có thể lồng ghép con đường phát triển của chuỗi công khai. Trong các chu kỳ trước, nhiều chuỗi công khai mới đã xuất hiện, sử dụng TPS và phương pháp quản trị của riêng họ để thu hút nhiều nhà phát triển khác nhau.
Điều tương tự cũng đúng với các sản phẩm AI+DePIN hiện tại, thu hút nhiều nhà phát triển mô hình AI khác nhau dựa trên sức mạnh tính toán, băng thông, dữ liệu và lợi thế IP của riêng họ. Do đó, hiện tại chúng tôi thấy rằng các sản phẩm AI+DePIN có xu hướng thiên về cạnh tranh đồng nhất.
Mấu chốt của vấn đề không phải là lượng sức mạnh tính toán (mặc dù đây là điều kiện tiên quyết rất quan trọng), mà là làm thế nào để sử dụng sức mạnh tính toán này. Con đường AI+DePIN hiện tại vẫn đang trong giai đoạn đầu của "sự tăng trưởng man rợ", vì vậy chúng ta có thể đặt nhiều kỳ vọng vào mô hình và dạng sản phẩm trong tương lai của AI+DePIN.
Tài liệu tham khảo
1.https://www . techopedia.com/decentralized-physical-infrastructure-networks-DePIN-brings-ai-and-crypto- together
2. https://medium.com / meson-network/with-the-increeasing-ai-and-DePIN-trends-why- Should-you-consider-keeping-an-eye-on-meson-network-59094665c9bd
3.https://medium.com/cudos/the-rise-of-DePIN-unveiling-the-future-of-ai-and-metaverse-compute-requirements-213f7b5b1171
< p style="text-align: left;">4.https://www.numenta.com/blog/2022/05/24/ai-is-harming-our-planet/
5.https://www.techflowpost.com/article/detail_15398.html
6.https:// www .numenta.com/blog/2022/05/24/ai-is-harming-our-planet/
7.https://mirror.xyz / livepeer.eth/7yjb5osZ28AJ9xvA54bZ4T2hUpNM5O9rrpv-zmGWDZ4