Tác giả: Vitalik; Bản dịch: Golden Finance xiaozou
Trong những năm qua, nhiều người đã hỏi tôi một câu hỏi tương tự, tôi nghĩ đó là điểm giao thoa hiệu quả nhất giữa tiền điện tử và trí tuệ nhân tạo. ? Đó là một câu hỏi hay: mật mã và trí tuệ nhân tạo được cho là hai xu hướng công nghệ sâu (phần mềm) thống trị nhất trong thập kỷ qua và chắc chắn phải có mối liên hệ nào đó giữa hai xu hướng này. Nhìn bề ngoài thì dễ dàng nhận thấy sự phối hợp: phân cấp tiền điện tử có thể cân bằng các vấn đề tập trung của AI, AI không rõ ràng, mã hóa mang lại sự minh bạch, AI cần dữ liệu và blockchain rất tốt để lưu trữ và theo dõi dữ liệu. Nhưng trong nhiều năm, khi mọi người yêu cầu tôi tìm hiểu sâu hơn và nói về các ứng dụng cụ thể, câu trả lời của tôi luôn khiến họ thất vọng: "Ừ, có chiều sâu, nhưng không nhiều."
Ba năm qua đã chứng kiến sự trỗi dậy của trí tuệ nhân tạo mạnh mẽ hơn dưới dạng LLM (mô hình học máy) hiện đại và các loại tiền điện tử mạnh mẽ hơn – không chỉ ở dạng giải pháp mở rộng quy mô blockchain mà còn có sự nổi lên của các hình thức MPC ZKP, FHE, (hai đảng và n đảng) - và tôi bắt đầu thấy những thay đổi. Thực sự có một số ứng dụng trí tuệ nhân tạo đầy hứa hẹn trong hệ sinh thái blockchain hoặc các ứng dụng kết hợp trí tuệ nhân tạo với mật mã, điều quan trọng là phải chú ý đến cách ứng dụng trí tuệ nhân tạo. Một vấn đề cụ thể là: trong mật mã, nguồn mở là cách duy nhất để đảm bảo rằng thứ gì đó thực sự an toàn, nhưng trong lĩnh vực trí tuệ nhân tạo, các mô hình nguồn mở (ngay cả dữ liệu đào tạo cũng là nguồn mở) càng làm trầm trọng thêm cuộc đối đầu mà nó phải đối mặt. đến các cuộc tấn công học máy. Bài viết này sẽ giới thiệu những mối giao thoa khác nhau có thể có giữa mật mã và trí tuệ nhân tạo, cũng như những triển vọng và thách thức của chúng.
Bốn loại chính của AI
Trí tuệ nhân tạo là một khái niệm rất rộng: bạn có thể coi "trí tuệ nhân tạo" như một tập hợp các thuật toán thay vì các cài đặt cụ thể, giống như thông qua Stir a nồi súp tính toán kỳ diệu lớn và áp dụng một số loại áp lực tối ưu hóa để súp cung cấp cho bạn các thuật toán với các thuộc tính bạn muốn. Không bao giờ nên xem nhẹ mô tả này: đó là cách con người chúng ta được sinh ra lần đầu tiên! Các thuật toán AI có một điểm chung: chúng cực kỳ mạnh mẽ trong những gì chúng làm, nhưng đồng thời, khả năng nhìn lén của chúng ta rất hạn chế.
Có nhiều cách phân loại trí tuệ nhân tạo. Bài viết này tập trung vào sự giao thoa giữa trí tuệ nhân tạo và blockchain (được mô tả là nền tảng để tạo ra “trò chơi”) nên tôi sẽ phân loại trí tuệ nhân tạo ở đây như sau:
Gamer AI (dễ tồn tại nhất): Trong cơ chế mà AI tham gia, nguồn khuyến khích cuối cùng đến từ đầu vào của con người trong giao thức.
AI giống giao diện trò chơi (tiềm năng rất lớn nhưng cũng có rủi ro): AI giúp người dùng hiểu thế giới mật mã xung quanh họ và đảm bảo hành động của họ (ví dụ: ký tin nhắn và giao dịch)) phù hợp với ý định của họ và họ sẽ không bị lừa dối.
Quy tắc trò chơi AI (đi trên băng mỏng): Blockchain, DAO và các cơ chế tương tự khác gọi trực tiếp là AI. Ví dụ: "Thẩm phán AI".
AI nhắm mục tiêu vào trò chơi (dài hạn nhưng thú vị): thiết kế chuỗi khối, DAO và các cơ chế tương tự khác với mục tiêu xây dựng và duy trì AI có thể được sử dụng cho các mục đích khác mục đích, sử dụng các bit mật mã để thúc đẩy đào tạo tốt hơn hoặc ngăn chặn AI rò rỉ dữ liệu riêng tư hoặc bị lạm dụng.
1. Gamer AI
Gamer AI thực chất là một hạng mục đã tồn tại gần chục năm, đặc biệt kể từ khi nó được thêm vào chuỗi kể từ khi tập trung hóa trao đổi (DEX) bắt đầu được sử dụng rộng rãi. Miễn là có giao dịch, sẽ có cơ hội kiếm tiền thông qua chênh lệch giá và robot có lợi thế hơn con người trong hoạt động chênh lệch giá. Trường hợp sử dụng này đã có từ lâu và mặc dù AI được sử dụng đơn giản hơn nhiều so với AI ngày nay nhưng cuối cùng nó lại trở thành sự giao thoa thực sự giữa trí tuệ nhân tạo và tiền điện tử. Gần đây chúng tôi thấy các bot chênh lệch giá MEV cạnh tranh với nhau rất nhiều. Bất cứ khi nào một ứng dụng blockchain liên quan đến đấu giá hoặc giao dịch, các bot chênh lệch giá sẽ xuất hiện.
Tuy nhiên, bot chênh lệch giá AI chỉ là ví dụ đầu tiên của một danh mục lớn hơn mà tôi mong đợi sẽ sớm bao gồm nhiều ứng dụng khác.
Thị trường dự đoán từ lâu đã trở thành chén thánh của công nghệ nhận thức; tôi đã rất hào hứng với việc sử dụng thị trường dự đoán làm đầu vào quản trị vào năm 2014 và chúng đã được sử dụng rộng rãi trong các cuộc bầu cử gần đây nhất và gần đây nhất. Nhưng cho đến nay, các thị trường dự đoán vẫn chưa phát triển nhiều trong thực tế, vì một số lý do phổ biến: những người chơi lớn nhất có xu hướng phi lý, những người nhạy cảm có xu hướng không dành thời gian cá cược trừ khi có số tiền lớn, và Có thị trường có tính thanh khoản rất thấp, v.v.
Một câu trả lời cho vấn đề này chỉ ra những cải tiến về trải nghiệm người dùng đang được Polymarket hoặc các thị trường dự đoán mới nổi khác thực hiện và hy vọng rằng họ có thể thành công ở nơi họ đã thất bại trước đó. Suy cho cùng câu chuyện là như vậy, người ta sẵn sàng cá cược hàng chục tỷ USD vào các sự kiện thể thao, vậy tại sao không đặt đủ vào bầu cử Mỹ hay LK99 để các ông lớn cũng có thể vào sân sẵn sàng. Nhưng điều này phải đối mặt với thực tế là, vì trước đây chưa có thị trường nào đạt được quy mô này (ít nhất là so với giấc mơ của những người đề xuất nó), nên dường như cần phải có điều gì đó mới để làm cho thị trường dự đoán thành công. Vì vậy, một phản ứng khác chỉ ra một đặc điểm cụ thể của hệ sinh thái thị trường dự đoán, cụ thể là chúng ta có thể thấy điều gì đó vào những năm 2020 mà chúng ta không thể thấy trong thập kỷ trước: khả năng có trí tuệ nhân tạo phổ biến.
AI sẵn sàng làm việc với mức lương dưới 1 đô la một giờ và sở hữu kiến thức bách khoa—và nếu điều đó vẫn chưa đủ, chúng thậm chí có thể được kết hợp với khả năng tìm kiếm trên web theo thời gian thực. Nếu bạn tạo ra thị trường và đưa ra khoản trợ cấp thanh khoản 50 đô la, con người có thể không quan tâm đủ đến việc đặt giá thầu, nhưng hàng nghìn AI sẽ hành động nhanh chóng và đưa ra những dự đoán tốt nhất có thể. Động lực để thực hiện tốt một vấn đề có thể nhỏ, nhưng động lực để AI đưa ra dự đoán chính xác trên diện rộng là rất lớn. Lưu ý rằng bạn thậm chí không cần con người để phân xử hầu hết các vấn đề: bạn có thể sử dụng hệ thống tranh chấp nhiều vòng tương tự như Augur hoặc Kleros, trong đó AI cũng sẽ tham gia vào các vòng trước đó. Con người chỉ cần phản ứng trong những trường hợp rất hiếm và đó là khi một loạt nâng cấp đòi hỏi sự đầu tư đáng kể cho cả hai bên.
Đây là một công cụ nguyên thủy mạnh mẽ vì một khi thị trường dự đoán có thể hoạt động ở quy mô vi mô như vậy, bạn có thể sử dụng lại các thị trường dự đoán nguyên thủy cho nhiều loại vấn đề khác:
Bài đăng trên mạng xã hội này có được phép xuất bản theo [Điều khoản sử dụng của người dùng] không?
Điều gì sẽ xảy ra với giá cổ phiếu X?
Tài khoản gửi tin nhắn cho tôi bây giờ có thực sự là Elon Musk không?
Công việc nâng cao hiệu quả trong thị trường việc làm trực tuyến này có đủ tiêu chuẩn không?
Dapp có URL https://examplefinance.network này có phải là lừa đảo không?
0x1b54....98c3 có thực sự là địa chỉ của mã thông báo "Casinu Inu" ERC20 không?
Bạn có thể nhận thấy rằng nhiều ý tưởng trong số này đi theo hướng mà tôi gọi là "bảo vệ thông tin". Nói rộng hơn, câu hỏi đặt ra là: Làm thế nào để chúng tôi giúp người dùng phân biệt thông tin đúng và sai và phát hiện gian lận mà không trao quyền cho cơ quan tập trung quyết định điều gì đúng và điều gì sai, bởi vì cơ quan tập trung có thể lạm dụng quyền lực của mình. Ở cấp độ vi mô, câu trả lời có thể là “trí tuệ nhân tạo”. Nhưng ở cấp độ vĩ mô, câu hỏi cần đặt ra là: Ai sẽ xây dựng trí tuệ nhân tạo? Trí tuệ nhân tạo là sự phản ánh của quá trình nó được tạo ra và không tránh khỏi sự thiên vị. Do đó, chúng ta cần một trò chơi cấp cao hơn để đánh giá hiệu suất của nhiều AI khác nhau để AI có thể tham gia trò chơi với tư cách là người chơi.
Việc sử dụng trí tuệ nhân tạo này, trong đó trí tuệ nhân tạo tham gia vào một cơ chế và cuối cùng được khen thưởng hoặc khen thưởng bởi một cơ chế trên chuỗi tổng hợp đầu vào của con người (gọi nó là RLHF phi tập trung dựa trên thị trường thì sao?). Tôi nghĩ đó là một hướng đi thực sự đáng xem xét. Đã đến lúc xem xét nhiều hơn các trường hợp sử dụng như thế này, vì việc mở rộng quy mô chuỗi khối cuối cùng đã thành công, khiến mọi thứ “nhỏ” hoặc “vi mô” đều khả thi trên chuỗi mà trước đây thường không khả thi.
Một danh mục ứng dụng liên quan là danh mục các tác nhân có tính tự chủ cao sử dụng chuỗi khối để đạt được sự hợp tác tốt hơn, cho dù thông qua thanh toán hay thông qua việc sử dụng hợp đồng thông minh để đưa ra các cam kết đáng tin cậy.
2. Giao diện trò chơi AI
Một ý tưởng mà tôi từng đề xuất trong bài viết của mình là có một cơ hội thị trường cho việc viết phần mềm hướng đến người dùng, phần mềm này có thể được diễn giải thông qua và bảo vệ quyền lợi của người dùng. lợi ích bằng cách xác định những mối nguy hiểm trong thế giới trực tuyến mà họ đang duyệt. Một ví dụ hiện có là chức năng phát hiện gian lận của Metamask:
Một ví dụ khác là tính năng mô phỏng của Rabby Wallet, cho người dùng thấy kết quả mong đợi của giao dịch mà họ sắp ký.
Những công cụ này có thể được tăng cường đáng kể nhờ trí tuệ nhân tạo. AI có thể đưa ra lời giải thích phong phú hơn, thân thiện với con người hơn về loại dapp bạn đang tham gia, hậu quả của các hoạt động phức tạp mà bạn đang ký và liệu một loại tiền cụ thể có phải là thật hay không (ví dụ: BITCOIN không chỉ là một chuỗi ký tự; Tên của một loại tiền điện tử thực sự không phải là mã thông báo ERC20, có giá cao hơn nhiều so với 0,045 USD, LLM sẽ biết điều này), v.v. Một số dự án đang bắt đầu phát triển theo hướng này (như ví LangChain sử dụng AI làm giao diện chính). Quan điểm cá nhân của tôi là giao diện chỉ có AI có thể quá rủi ro vào lúc này vì nó làm tăng nguy cơ mắc các loại lỗi khác, nhưng việc sử dụng AI để bổ sung cho các giao diện thiên về truyền thống là điều cực kỳ khả thi.
Có một rủi ro cụ thể đáng được đề cập. Tôi sẽ thảo luận chi tiết về vấn đề này trong phần AI về Quy tắc trò chơi bên dưới, nhưng vấn đề chung là với máy học đối nghịch: nếu người dùng có quyền truy cập vào trợ lý AI trong ví nguồn mở thì kẻ xấu cũng có thể truy cập vào trợ lý AI đó. , vì vậy họ sẽ có cơ hội không giới hạn để tối ưu hóa các hoạt động lừa đảo của mình và tránh kích hoạt các biện pháp bảo vệ ví. Tất cả AI hiện đại đều có lỗi và không khó để tìm ra lỗi trong quá trình đào tạo, ngay cả khi khả năng truy cập vào mô hình bị hạn chế.
Đây là lúc “sự tham gia của trí tuệ nhân tạo vào các thị trường vi mô trên chuỗi” phát huy tác dụng: tất cả các khả năng của AI đều dễ gặp phải những rủi ro giống nhau, nhưng bạn cố tình tạo ra một hệ sinh thái mở được vận hành liên tục bởi hàng chục mọi người Lặp lại và cải thiện. Hơn nữa, mỗi AI riêng lẻ đều có tính chất khép kín: tính bảo mật của hệ thống đến từ tính mở của luật chơi chứ không phải từ hoạt động nội bộ của mỗi người chơi.
Tóm tắt: Trí tuệ nhân tạo có thể giúp người dùng hiểu những gì đang xảy ra bằng ngôn ngữ đơn giản, nó có thể đóng vai trò như một người dạy kèm theo thời gian thực và có thể bảo vệ người dùng khỏi những tác động tiêu cực của lỗi, nhưng nếu bạn muốn sử dụng trí tuệ nhân tạo trực tiếp Hãy cẩn thận khi xử lý thông tin sai lệch độc hại và những kẻ lừa đảo.
3. Quy tắc trò chơi AI
Bây giờ, chúng ta đã nói về những ứng dụng khiến nhiều người thích thú, nhưng tôi nghĩ đây là nơi nguy hiểm nhất và chúng ta cần phải bước đi cẩn thận: Tôi Gọi nó là “trí tuệ nhân tạo trở thành một phần của luật chơi”. Điều này tương quan với sự phấn khích của giới tinh hoa chính trị chính thống về “thẩm phán AI” và những nguyện vọng tương tự trong các ứng dụng blockchain. Nếu hợp đồng thông minh hoặc DAO dựa trên blockchain yêu cầu phải đưa ra các quyết định chủ quan (ví dụ: một sản phẩm công việc cụ thể có được bảo đảm trong hợp đồng lao động không?), bạn có thể yêu cầu AI là một phần của hợp đồng hoặc DAO để giúp thực thi những quy tắc này không?
Đây là lý do tại sao học máy đối nghịch sẽ trở thành một thách thức cực kỳ khó khăn. Đối số cơ bản gồm hai câu như sau:
Nếu mô hình AI đóng vai trò chính trong cơ chế là vòng kín thì không thể xác minh hoạt động bên trong của nó, vì vậy nó không tốt hơn một ứng dụng tập trung. Nếu mô hình AI là nguồn mở, kẻ tấn công có thể tải xuống và mô phỏng cục bộ rồi thiết kế các cuộc tấn công được tối ưu hóa mạnh mẽ để đánh lừa mô hình, sau đó phát lại trên mạng trực tiếp.
Bây giờ, một số độc giả (hoặc những người đam mê tiền điện tử) có thể đã đi trước tôi và nghĩ: Đợi đã! Chúng tôi có những bằng chứng không có kiến thức tuyệt vời và các thủ thuật mã hóa thực sự thú vị khác. Tất nhiên, chúng ta có thể thực hiện một số phép thuật mật mã để che giấu hoạt động bên trong của mô hình để kẻ tấn công không thể tối ưu hóa cuộc tấn công, đồng thời chứng minh rằng mô hình đang được thực thi chính xác và được xây dựng bằng quy trình đào tạo hợp lý trên cơ sở hợp lý. tập dữ liệu cơ bản. của!
Nói chung, đây là cách suy nghĩ mà tôi đã ủng hộ trong các bài viết khác. Nhưng có hai ý kiến phản đối chính đối với điện toán liên quan đến AI:
Chi phí mật mã: Đang thực hiện thứ gì đó bên trong SNARK (hoặc MPC...) kém hiệu quả hơn nhiều so với thực hiện nó một cách minh bạch. Xét rằng AI vốn đã có khả năng tính toán rất cao, liệu việc thực hiện các phép tính AI trong hộp đen mật mã có khả thi không?
Các cuộc tấn công học máy đối nghịch trong hộp đen: Có nhiều cách để tối ưu hóa các cuộc tấn công chống lại các mô hình AI ngay cả khi không hiểu hoạt động bên trong của mô hình. Nếu bạn che giấu nó quá nhiều, bạn có nguy cơ tạo điều kiện cho người chọn dữ liệu huấn luyện dễ dàng phá hủy mô hình bằng một cuộc tấn công độc hại.
Cả hai đều là những hố thỏ phức tạp nên chúng ta hãy lần lượt khám phá chúng nhé.
(1) Chi phí mã hóa
Các công cụ mã hóa, đặc biệt là các công cụ chung như ZK-SNARK và MPC, có chi phí cao. Khách hàng phải mất hàng trăm mili giây để xác minh trực tiếp khối Ethereum, nhưng việc tạo ZK-SNARK để chứng minh tính chính xác của khối đó có thể mất hàng giờ. Chi phí thông thường của các công cụ mã hóa khác như MPC có thể lớn hơn. Điện toán AI vốn đã khá đắt đỏ: các LLM mạnh nhất có thể tạo ra các từ riêng lẻ chỉ nhanh hơn một chút so với khả năng đọc từ của con người, chưa kể chi phí tính toán hàng triệu đô la thường đi kèm với việc đào tạo các mô hình này. Có sự khác biệt rất lớn về chất lượng giữa các mô hình hàng đầu và các mô hình cố gắng tiết kiệm nhiều chi phí đào tạo hoặc số lượng thông số hơn. Thoạt nhìn, đây là lý do chính đáng để nghi ngờ rằng toàn bộ dự án đang cố gắng tăng cường bảo mật bằng cách bọc AI trong mật mã.
May mắn thay, trí tuệ nhân tạo là một loại máy tính có cấu trúc rất cụ thể, giúp nó có khả năng thích ứng với nhiều cách tối ưu hóa khác nhau mà các loại máy tính "phi cấu trúc" như ZK-EVM không thể hưởng lợi từ việc tối ưu hóa. Chúng ta hãy xem cấu trúc cơ bản của mô hình trí tuệ nhân tạo:
Thông thường, các mô hình AI chủ yếu bao gồm một loạt các phép nhân ma trận xen kẽ với các phép toán phi tuyến tính của từng phần tử, chẳng hạn như hàm ReLU (y=max(x,0)). Phép nhân ma trận chiếm phần lớn công việc: nhân hai ma trận N*N cần có thời gian, trong khi số phép toán phi tuyến nhỏ hơn nhiều. Điều này rất thuận tiện cho việc mã hóa, vì nhiều dạng mật mã làm cho các phép toán tuyến tính gần như "miễn phí" (nhân ma trận là một phép toán tuyến tính nếu bạn chỉ mã hóa mô hình mà không mã hóa đầu vào của nó).
Nếu là một nhà mật mã, có thể bạn đã từng nghe nói về một hiện tượng tương tự trong mã hóa đồng cấu: việc thực hiện phép cộng trên bản mã được mã hóa rất đơn giản, nhưng việc thực hiện phép nhân thì rất khó, cho đến tận năm 2009 chúng tôi mới tìm ra một cách để thực hiện các phép tính nhân sâu vô hạn.
Đối với ZK-SNARK, giao thức tương đương năm 2013 chứng minh rằng phép nhân ma trận đắt hơn chưa đến 4 lần. Thật không may, chi phí chung của các lớp phi tuyến tính cuối cùng vẫn rất đáng kể, với những triển khai tốt nhất trong thực tế cho thấy chi phí chung khoảng 200 lần. Nhưng có hy vọng rằng nghiên cứu sâu hơn có thể giảm đáng kể chi phí này.
Nhưng đối với nhiều ứng dụng, chúng tôi không chỉ muốn chứng minh rằng đầu ra AI là chính xác về mặt tính toán mà chúng tôi còn muốn ẩn mô hình. Có một số cách đơn giản để đạt được điều này: bạn có thể chia mô hình và để các lớp được lưu trữ dư thừa bởi một nhóm máy chủ khác, hy vọng rằng một số máy chủ rò rỉ dữ liệu từ các lớp nhất định sẽ không rò rỉ quá nhiều dữ liệu. Nhưng có một số cách đặc biệt hiệu quả để thực hiện tính toán nhiều bên.
Trong cả hai trường hợp, tinh thần của câu chuyện đều giống nhau : phần quan trọng nhất của tính toán AI là nhân ma trận, do đó có thể tạo ra ZK-SNARK hoặc MPC (hoặc thậm chí FHE) rất hiệu quả, do đó tổng chi phí đưa AI vào hộp mật mã là rất thấp. Nhìn chung, các lớp phi tuyến tính là nút thắt cổ chai lớn nhất, mặc dù kích thước của chúng nhỏ hơn; có lẽ các kỹ thuật mới hơn như Lookup Arguments sẽ hữu ích.
(2) Học máy đối nghịch hộp đen
Bây giờ, chúng ta hãy thảo luận về một vấn đề chính khác: nếu nội dung của mô hình là riêng tư và bạn chỉ có "API" cho model Access", bạn có thể thực hiện những loại tấn công nào? Hãy để tôi trích dẫn một bài báo từ năm 2016:
Nhiều mô hình học máy dễ gặp phải các ví dụ đối nghịch: đầu vào được thiết kế đặc biệt khiến mô hình học máy tạo ra kết quả đầu ra không chính xác. Các ví dụ đối nghịch có thể ảnh hưởng đến một mô hình thường sẽ ảnh hưởng đến mô hình kia, ngay cả khi hai mô hình đó có kiến trúc khác nhau hoặc được huấn luyện trên các tập huấn luyện khác nhau, miễn là cả hai mô hình đều được huấn luyện để thực hiện cùng một nhiệm vụ. Do đó, kẻ tấn công có thể huấn luyện mô hình thay thế của riêng mình, trau dồi các ví dụ đối nghịch với mô hình thay thế và sau đó sử dụng chúng trong mô hình nạn nhân với ít kiến thức về mô hình nạn nhân.
Có thể, bạn thậm chí chỉ có thể tạo cuộc tấn công dữ liệu huấn luyện , sẽ không thành vấn đề nếu bạn có rất ít quyền truy cập hoặc không có quyền truy cập vào mô hình mà bạn đang cố gắng tấn công. Tính đến năm 2023, những cuộc tấn công kiểu này vẫn sẽ là một vấn đề lớn.
Để giảm thiểu hiệu quả kiểu tấn công hộp đen này, chúng ta cần thực hiện hai việc:
Thực sự giới hạn người có thể truy vấn mô hình và số lượng truy vấn có thể được truy vấn. Hộp đen có quyền truy cập API không hạn chế sẽ không an toàn; hộp đen có quyền truy cập API rất hạn chế có thể an toàn.
Ẩn dữ liệu huấn luyện trong khi vẫn đảm bảo rằng quy trình được sử dụng để tạo dữ liệu huấn luyện không bị hỏng.
Dự án làm được nhiều việc đầu tiên nhất có lẽ là Worldcoin. Worldcoin sử dụng rộng rãi các mô hình trí tuệ nhân tạo ở cấp độ giao thức để chuyển đổi quét mống mắt thành các “mã mống mắt” ngắn dễ so sánh về độ giống nhau, cũng như xác minh rằng đối tượng mà nó quét thực sự là một người. Biện pháp phòng thủ chính mà Worldcoin dựa vào là nó không cho phép bất kỳ ai dễ dàng gọi mô hình AI mà thay vào đó sử dụng phần cứng đáng tin cậy để đảm bảo rằng mô hình này chỉ chấp nhận đầu vào được ký điện tử bởi camera quả cầu.
Cách tiếp cận này không nhất thiết phải hiệu quả: Hóa ra bạn có thể thực hiện các cuộc tấn công đối địch vào AI sinh trắc học, dưới dạng miếng dán vật lý hoặc đồ trang sức mà bạn có thể đeo trên mặt:
< p>< img src="https://img.jinse.cn/7174536_watermarknone.png" title="7174536" alt="5lEhdZJcHyXPUA9dVxLX27rffW8zx5abElLnfrdb.jpeg">Nhưng hy vọng là nếu bạn kết hợp tất cả các biện pháp phòng thủ lại với nhau, bạn có thể giấu được sự nhân tạo với Bản thân mô hình thông minh, hạn chế đáng kể khối lượng truy vấn và yêu cầu mỗi truy vấn phải được xác thực theo một cách nào đó, bạn có thể thực hiện các cuộc tấn công đủ khó để hệ thống có thể được bảo mật.
Điều này đưa chúng ta đến vấn đề tiếp theo: làm cách nào để ẩn dữ liệu đào tạo? Đây có thể là nơi "AI DAO quản trị dân chủ" xuất hiện: chúng tôi có thể tạo DAO trên chuỗi và quản trị xác định quy trình sau: ai được phép gửi dữ liệu đào tạo (cần có bằng chứng liên quan đến dữ liệu nào), ai là người được phép truy vấn, lượng nội dung cần truy vấn và Sử dụng công nghệ mã hóa như MPC để mã hóa toàn bộ quá trình tạo và chạy AI (từ đầu vào đào tạo của mỗi người dùng đến đầu ra cuối cùng của mỗi truy vấn). DAO cũng có thể bồi thường cho những người gửi dữ liệu cùng lúc.
Cần phải nhắc lại rằng kế hoạch này đầy tham vọng và có thể không thực tế về nhiều mặt:
Chi phí mã hóa có thể vẫn còn quá cao để loại kiến trúc toàn hộp đen này có thể cạnh tranh với các phương pháp tiếp cận đóng "tin tưởng tôi" truyền thống.
Kết quả có thể là không có cách nào tốt để phân cấp quy trình gửi dữ liệu đào tạo và ngăn chặn các cuộc tấn công độc hại.
Sự đảm bảo về bảo mật hoặc quyền riêng tư của các công cụ điện toán nhiều bên có thể bị xâm phạm do sự thông đồng giữa những người tham gia: xét cho cùng, điều này đã từng xảy ra nhiều lần với tiền điện tử chéo cầu dây chuyền.
Lý do tôi không bắt đầu phần này với một nhãn cảnh báo màu đỏ lớn hơn nói với bạn rằng “Đừng làm giám khảo AI, nó thật lạc hậu” là vì Một lý do là xã hội của chúng ta đã phụ thuộc rất nhiều vào các thẩm phán AI tập trung vô trách nhiệm: ví dụ: các thuật toán quyết định bài đăng và quan điểm chính trị nào trên mạng xã hội hoặc bị át đi (hoặc thậm chí bị kiểm duyệt). Tôi thực sự nghĩ rằng việc mở rộng xu hướng này hơn nữa trong giai đoạn này là một ý tưởng rất tồi, nhưng tôi không nghĩ việc cộng đồng blockchain thử nghiệm nhiều hơn với AI sẽ khiến tình hình trở nên tồi tệ hơn.
Thực tế là có một số cách cơ bản có rủi ro rất thấp để mã hóa giúp cải thiện các hệ thống tập trung hiện có này và tôi rất tự tin vào điều đó. Có một kỹ thuật đơn giản để xác minh AI bằng cách trì hoãn xuất bản: khi một trang mạng xã hội xếp hạng các bài đăng dựa trên AI, nó có thể xuất bản ZK-SNARK chứng minh hàm băm của mô hình đã tạo ra thứ hạng đó. Trang web có thể hứa sẽ tiết lộ mô hình AI của mình sau một năm nữa. Sau khi một mô hình được xuất bản, người dùng có thể kiểm tra hàm băm để xác minh rằng mô hình chính xác đã được xuất bản và cộng đồng có thể chạy thử nghiệm trên mô hình để xác minh tính công bằng của nó. Việc trì hoãn phát hành sẽ đảm bảo rằng vào thời điểm mô hình được công bố rộng rãi, nó đã lỗi thời.
Vì vậy, câu hỏi không phải là liệu chúng ta có thể làm tốt hơn so với thế giới tập trung hay không mà là tốt hơn bao nhiêu. Tuy nhiên, đối với thế giới phi tập trung, điều quan trọng là phải thận trọng: nếu ai đó xây dựng một thị trường dự đoán hoặc stablecoin sử dụng oracle AI và hóa ra oracle có thể bị hack thì một số tiền rất lớn sẽ bị mất. biến mất trong tích tắc.
4. AI nhắm mục tiêu vào trò chơi
Nếu công nghệ trên được sử dụng để tạo ra AI riêng tư phi tập trung có thể mở rộng, thì nội dung của nó là một hộp đen không ai biết đến và có thể được sử dụng trong các ứng dụng thực tế .. run thì điều này cũng có thể được sử dụng để tạo ra AI có tiện ích vượt ra ngoài blockchain. Nhóm Giao thức NEAR đang biến điều này thành mục tiêu cốt lõi trong công việc đang diễn ra của họ.
Có hai lý do để làm điều này:
If Bạn Nhiều ứng dụng lo lắng về việc hệ thống bị sai lệch hoặc tự lừa dối có thể được hưởng lợi từ “AI hộp đen đáng tin cậy” có thể được tạo bằng cách chạy các quy trình đào tạo và suy luận bằng cách sử dụng blockchain và MPC. Nhiều người đã bày tỏ kỳ vọng về sự quản lý dân chủ của AI quan trọng về mặt hệ thống mà chúng ta sẽ dựa vào; mật mã và công nghệ dựa trên blockchain có thể là cách để đạt được điều này.
Từ góc độ bảo mật AI, đây sẽ là công nghệ tạo ra AI phi tập trung cũng có tính năng ngắt kết nối tự nhiên nhằm hạn chế những người cố gắng sử dụng trí tuệ nhân tạo Truy vấn thông minh về độc hại hành vi.
Cũng cần lưu ý rằng việc “sử dụng các biện pháp khuyến khích bằng mật mã để khuyến khích việc tạo ra AI tốt hơn” có thể được thực hiện mà không cần mã hóa toàn bộ bằng mật mã: BitTensor và cộng sự. .
Kết luận
Cả blockchain và trí tuệ nhân tạo đang ngày càng trở nên mạnh mẽ và ngày càng có nhiều trường hợp sử dụng xuất hiện ở điểm giao thoa của hai lĩnh vực này. Tuy nhiên, một số trường hợp sử dụng này có ý nghĩa và mạnh mẽ hơn những trường hợp khác. Thông thường, các trường hợp sử dụng có xu hướng hứa hẹn nhất và dễ thực hiện nhất khi cơ chế cơ bản tiếp tục được thiết kế thô sơ như trước, nhưng từng người chơi trở thành AI, cho phép cơ chế hoạt động hiệu quả ở quy mô vi mô hơn.
Cố gắng sử dụng blockchain và mật mã để tạo các ứng dụng "đơn lẻ" sẽ gặp phải thách thức lớn nhất, đó là tạo ra một thực thể đáng tin cậy phi tập trung duy nhất mà một số ứng dụng sẽ dựa vào để đạt được một mục tiêu nhất định là AI. Các ứng dụng này đầy hứa hẹn về mặt chức năng và tính bảo mật AI được cải thiện, tránh các rủi ro tập trung hóa liên quan đến các hoạt động phổ biến hơn. Nhưng có nhiều cách mà các giả định cơ bản có thể thất bại; do đó, cần phải thận trọng, đặc biệt khi triển khai các ứng dụng này trong môi trường có giá trị cao và rủi ro cao.
Tôi mong muốn được thấy nhiều nỗ lực hơn nữa trong các trường hợp sử dụng mang tính xây dựng cho AI trên tất cả các điểm giao nhau này, để chúng ta có thể biết trường hợp sử dụng nào thực sự khả thi.