Tiêu đề gốc: AI là động cơ, con người là vô lăng
Tác giả: Vitalik, người sáng lập Ethereum; Người dịch: Baishui, Golden Finance
Xin gửi lời cảm ơn đặc biệt đến Devansh Mehta, Davide Crapis và Julian Zawistowski đã phản hồi và đánh giá, cũng như Tina Zhen, Shaw Walters và những người khác đã thảo luận.
Nếu bạn hỏi mọi người rằng họ thích gì ở các cấu trúc dân chủ, dù là chính phủ, nơi làm việc hay DAO dựa trên blockchain, bạn sẽ thường nghe thấy những lập luận giống nhau: chúng tránh sự tập trung quyền lực, chúng cung cấp sự đảm bảo chắc chắn cho người dùng vì không một cá nhân nào có thể thay đổi hoàn toàn hướng đi của hệ thống theo ý thích và họ có thể đưa ra các quyết định chất lượng cao hơn bằng cách thu thập quan điểm và trí tuệ của nhiều người.
Nếu bạn hỏi mọi người điều gì họ không thích ở các cấu trúc dân chủ, họ thường đưa ra những lời phàn nàn giống nhau: cử tri trung bình không tinh tế vì mỗi cử tri chỉ có một cơ hội nhỏ để tác động đến kết quả, ít cử tri đưa ra những suy nghĩ chất lượng cao khi đưa ra quyết định và bạn thường thấy mức độ tham gia thấp (khiến hệ thống dễ bị tấn công) hoặc sự tập trung hóa trên thực tế vì mọi người đều mặc định tin tưởng và sao chép quan điểm của một số ít người có ảnh hưởng.
Mục tiêu của bài viết này là khám phá một mô hình có thể cho phép chúng ta sử dụng AI theo cách giúp chúng ta đạt được lợi ích của các cấu trúc dân chủ mà không có những tác động phụ tiêu cực. “Trí tuệ nhân tạo là động cơ và con người là tay lái.” Con người chỉ cung cấp một lượng thông tin nhỏ cho hệ thống, có thể chỉ vài trăm bit, nhưng tất cả đều được cân nhắc kỹ lưỡng và có chất lượng cực kỳ cao. AI xử lý dữ liệu này như một “hàm mục tiêu” và không ngừng đưa ra nhiều quyết định để cố gắng hết sức đạt được các mục tiêu này. Đặc biệt, bài viết này sẽ khám phá một câu hỏi thú vị: Liệu chúng ta có thể thực hiện điều này mà không cần đặt một AI duy nhất vào trung tâm, mà thay vào đó là dựa vào một thị trường mở cạnh tranh mà bất kỳ AI nào (hoặc sự kết hợp giữa con người và máy móc) đều có thể tự do tham gia hay không?

Thư mục
Tại sao không để trí tuệ nhân tạo đảm nhiệm?
Tương lai
Tinh chỉnh phán đoán của con người
Tài chính sâu
Tăng cường quyền riêng tư
Lợi ích của thiết kế động cơ + vô lăng
Tại sao không để trí tuệ nhân tạo tiếp quản?
Cách dễ nhất để đưa sở thích của con người vào cơ chế dựa trên AI là tạo một mô hình AI và để con người nhập sở thích của họ vào đó theo một cách nào đó. Có một cách dễ dàng để thực hiện việc này: bạn chỉ cần đặt một tệp văn bản chứa danh sách hướng dẫn dành cho người đó vào dấu nhắc hệ thống. Sau đó, bạn có thể cấp cho AI khả năng truy cập internet bằng một trong nhiều "khung AI tác nhân", trao cho nó chìa khóa để truy cập vào tài sản của tổ chức và hồ sơ mạng xã hội của bạn và thế là xong.
Sau một vài lần lặp lại, điều này có thể đủ cho nhiều trường hợp sử dụng và tôi hoàn toàn tin tưởng rằng trong tương lai gần, chúng ta sẽ thấy nhiều cấu trúc liên quan đến AI đọc hướng dẫn do nhóm đưa ra (thậm chí là đọc cuộc trò chuyện nhóm theo thời gian thực) và thực hiện hành động.
Điểm không lý tưởng của cấu trúc này là cơ chế quản lý như một thể chế lâu dài. Một phẩm chất có giá trị mà một tổ chức lâu dài cần có là tính trung lập đáng tin cậy. Trong bài đăng giới thiệu khái niệm này, tôi đã liệt kê bốn đặc tính có giá trị của tính trung lập đáng tin cậy:
Đừng viết những người cụ thể hoặc kết quả cụ thể vào cơ chế
Mã nguồn mở và thực thi có thể xác minh công khai
Giữ cho nó đơn giản
Đừng thay đổi nó thường xuyên
LLM (hoặc tác nhân AI) đáp ứng 0/4. Mô hình này chắc chắn sẽ mã hóa một số lượng lớn các sở thích cụ thể của cá nhân và kết quả trong quá trình đào tạo. Đôi khi điều này dẫn đến những hướng đi đáng ngạc nhiên về sở thích của AI, ví dụ, hãy xem một nghiên cứu gần đây cho thấy các LLM hàng đầu coi trọng mạng sống ở Pakistan hơn mạng sống ở Hoa Kỳ (!!). Có thể là trọng số mở, nhưng điều đó không phải là mã nguồn mở; chúng ta không thực sự biết những con quỷ nào ẩn núp sâu bên trong mô hình. Điều này trái ngược với sự đơn giản: Độ phức tạp Kolmogorov của LLM lên tới hàng chục tỷ chữ số, gần bằng tất cả luật của Hoa Kỳ (liên bang + tiểu bang + địa phương) cộng lại. Và vì AI đang phát triển rất nhanh nên bạn phải thay đổi nó ba tháng một lần.
Vì lý do này, một cách tiếp cận khác mà tôi muốn khám phá trong nhiều trường hợp sử dụng là tạo ra một cơ chế đơn giản cho các quy tắc của trò chơi và để AI trở thành người chơi. Chính nhận thức này khiến thị trường trở nên hiệu quả: các quy tắc là một hệ thống quyền sở hữu tương đối ngu ngốc, các vụ án nhỏ được quyết định bởi một hệ thống tòa án tích lũy và điều chỉnh tiền lệ một cách chậm rãi, và mọi thông tin tình báo đều đến từ các doanh nhân hoạt động "bên lề".

Một "người chơi trò chơi" duy nhất có thể là một LLM, một nhóm LLM tương tác với nhau và gọi nhiều dịch vụ internet khác nhau, nhiều kết hợp AI + con người và nhiều cấu trúc khác; với tư cách là một nhà thiết kế cơ chế, bạn không cần phải biết. Mục tiêu lý tưởng là có một cơ chế hoạt động tự động - nếu mục tiêu của cơ chế là lựa chọn tài trợ cho cái gì, thì nó phải hoạt động giống phần thưởng khối Bitcoin hoặc Ethereum nhất có thể.
Lợi ích của cách tiếp cận này là:
Nó tránh việc ép buộc bất kỳ mô hình đơn lẻ nào vào cơ chế; thay vào đó, bạn có được một thị trường mở bao gồm nhiều đối tượng và kiến trúc khác nhau, tất cả đều có những thành kiến riêng. Các mô hình mở, mô hình đóng, nhóm tác nhân, con người lai AI, robot, khỉ vô hạn, v.v. đều là mục tiêu hợp lệ; cơ chế này không phân biệt đối xử với bất kỳ ai.
Cơ chế này là mã nguồn mở. Trò chơi là mã nguồn mở, mặc dù người chơi thì không — và đó là một mô hình khá dễ hiểu (các đảng phái chính trị và thị trường hoạt động theo cách này, ví dụ)
Cơ chế này rất đơn giản, do đó, có tương đối ít cách để nhà thiết kế cơ chế mã hóa thành kiến của riêng họ vào thiết kế
Cơ chế này không thay đổi, ngay cả khi kiến trúc diễn viên cơ bản cần được thiết kế lại ba tháng một lần kể từ bây giờ cho đến Điểm kỳ dị.
Mục tiêu của cơ chế cố vấn là phản ánh trung thực các mục tiêu cơ bản của người tham gia. Nó chỉ cần cung cấp một lượng thông tin nhỏ, nhưng phải là thông tin chất lượng cao.
Bạn có thể coi cơ chế này như một cách khai thác sự bất đối xứng giữa việc đề xuất câu trả lời và việc xác minh câu trả lời. Điều này tương tự như việc Sudoku rất khó giải nhưng lại dễ xác minh rằng giải pháp là đúng. Tại đó, bạn (i) tạo ra một thị trường mở nơi người chơi đóng vai trò là “người giải quyết” và sau đó (ii) duy trì một cơ chế do con người điều hành thực hiện nhiệm vụ đơn giản hơn nhiều là xác thực các giải pháp được đề xuất.
Futarchy
Futarchy ban đầu được Robin Hanson đề xuất, có nghĩa là "bỏ phiếu cho giá trị nhưng đặt cược vào niềm tin". Cơ chế bỏ phiếu sẽ chọn ra một tập hợp các mục tiêu (có thể là bất kỳ mục tiêu nào, miễn là có thể đo lường được) rồi kết hợp chúng thành một số liệu M. Khi bạn cần đưa ra quyết định (giả sử là CÓ/KHÔNG để đơn giản), bạn thiết lập một thị trường có điều kiện: bạn yêu cầu mọi người đặt cược vào (i) liệu họ sẽ chọn CÓ hay KHÔNG, (ii) giá trị của M nếu họ chọn CÓ, nếu không thì bằng không, và (iii) giá trị của M nếu họ chọn KHÔNG, nếu không thì bằng không. Với ba biến này, bạn có thể xác định xem thị trường nghĩ rằng CÓ hay KHÔNG có lợi hơn cho giá trị của M.

“Giá cổ phiếu công ty” (hoặc giá token cho tiền điện tử) là số liệu được trích dẫn phổ biến nhất vì dễ hiểu và dễ đo lường, nhưng cơ chế này có thể hỗ trợ nhiều số liệu khác nhau: số người dùng hoạt động hàng tháng, mức độ hạnh phúc trung bình do một số nhóm tự báo cáo, một số chỉ số phi tập trung có thể định lượng, v.v.
Futarchy ban đầu được phát minh trước kỷ nguyên trí tuệ nhân tạo. Tuy nhiên, Futarchy phù hợp một cách tự nhiên với mô hình “trình giải phức tạp, trình xác minh đơn giản” được mô tả trong phần trước và các nhà giao dịch trong Futarchy cũng có thể là AI (hoặc sự kết hợp giữa con người + AI). Vai trò của “người giải quyết” (nhà giao dịch thị trường dự đoán) là xác định cách thức mỗi kế hoạch được đề xuất sẽ ảnh hưởng đến giá trị của chỉ báo tương lai. Việc này thật khó. Nếu người giải đúng, họ sẽ kiếm được tiền, nếu người giải sai, họ sẽ mất tiền. Người xác thực (những người bỏ phiếu cho các số liệu, điều chỉnh chúng nếu họ nhận thấy chúng đang bị "điều khiển" hoặc trở nên lỗi thời và xác định số liệu thực sự sẽ là gì vào một thời điểm nào đó trong tương lai) chỉ phải trả lời một câu hỏi đơn giản hơn: "Giá trị của số liệu hiện tại là bao nhiêu?"
Tinh chỉnh phán đoán của con người
Tinh chỉnh phán đoán của con người là một loại cơ chế hoạt động như sau. Có hàng tá (khoảng 1 triệu) câu hỏi cần được trả lời. Các ví dụ tự nhiên bao gồm:
Mỗi người trong danh sách này nên được ghi nhận bao nhiêu công lao cho những đóng góp của họ cho một dự án hoặc nhiệm vụ?
Bình luận nào sau đây vi phạm quy định của nền tảng mạng xã hội (hoặc cộng đồng phụ)?
Trong số các địa chỉ Ethereum được đưa ra ở đây, địa chỉ nào đại diện cho những người thực sự và duy nhất?
Trong số những vật thể vật lý sau, vật thể nào có tác động tích cực hay tiêu cực đến tính thẩm mỹ của môi trường xung quanh?
Bạn có một nhóm có thể trả lời những câu hỏi này, nhưng phải tốn rất nhiều công sức cho mỗi câu trả lời. Bạn chỉ yêu cầu nhóm trả lời một số ít câu hỏi (ví dụ: nếu danh sách có 1 triệu mục, nhóm có thể chỉ trả lời 100 mục). Bạn thậm chí có thể hỏi nhóm những câu hỏi gián tiếp: thay vì hỏi "Alice nên được hưởng bao nhiêu phần trăm tổng số điểm?", hãy hỏi "Alice hay Bob nên được hưởng nhiều điểm hơn và nhiều hơn bao nhiêu?". Khi thiết kế cơ chế bồi thẩm đoàn, bạn có thể tái sử dụng các cơ chế thực tế đã được thử nghiệm và chứng minh hiệu quả như ủy ban tài trợ, tòa án (để xác định giá trị phán quyết), đánh giá và tất nhiên, bản thân những người tham gia bồi thẩm đoàn có thể sử dụng các công cụ nghiên cứu AI mới để giúp họ tìm ra câu trả lời.
Sau đó, bạn cho phép bất kỳ ai gửi danh sách các câu trả lời bằng số cho toàn bộ các câu hỏi (ví dụ: cung cấp ước tính về số điểm mà mỗi người tham gia sẽ nhận được cho toàn bộ danh sách). Những người tham gia được khuyến khích sử dụng trí tuệ nhân tạo để hoàn thành nhiệm vụ này, nhưng họ có thể sử dụng bất kỳ công nghệ nào: trí tuệ nhân tạo, công nghệ lai giữa người và máy, AI có khả năng truy cập vào tìm kiếm trên internet và khả năng tự động thuê những người lao động khác hoặc AI, khỉ được tăng cường điều khiển học, v.v.
Sau khi cả người cung cấp danh sách đầy đủ và bồi thẩm đoàn đều nộp câu trả lời, danh sách đầy đủ sẽ được đối chiếu với câu trả lời của bồi thẩm đoàn và một số kết hợp trong danh sách đầy đủ tương thích nhất với câu trả lời của bồi thẩm đoàn sẽ được chọn làm câu trả lời cuối cùng.
Cơ chế phán đoán tinh vi của con người khác với futarchy, nhưng có một số điểm tương đồng quan trọng:
Trong futarchy, "người giải" đưa ra dự đoán và "dữ liệu thực" mà dự đoán của họ dựa trên (được sử dụng để thưởng hoặc phạt người giải) là một thuật toán đưa ra các giá trị số liệu, được điều hành bởi một ban giám khảo.
Theo phán đoán tinh tế của con người, "người giải quyết" đưa ra câu trả lời cho một số lượng lớn các câu hỏi, trong khi "dữ liệu thực" mà dự đoán của họ dựa trên là các câu trả lời chất lượng cao cho một số ít các câu hỏi này do ban giám khảo đưa ra. Để biết ví dụ cụ thể về cách tinh chỉnh khả năng phán đoán của con người để phân bổ tín chỉ, hãy xem mã Python tại đây. Kịch bản yêu cầu bạn đóng vai trò là bồi thẩm đoàn và bao gồm một số danh sách đầy đủ các mục do AI (và con người tạo ra) tạo ra được đưa sẵn vào mã. Cơ chế này xác định sự kết hợp tuyến tính phù hợp nhất với danh sách đầy đủ các câu trả lời của ban giám khảo. Trong trường hợp này, tổ hợp chiến thắng là 0,199 * câu trả lời của Claude + 0,801 * câu trả lời của Deepseek; tổ hợp này phù hợp hơn với câu trả lời của ban giám khảo so với bất kỳ mô hình đơn lẻ nào. Các hệ số này cũng sẽ là phần thưởng dành cho người nộp bài.
Trong ví dụ "đánh bại Sauron" này, khía cạnh "con người là tay lái" được phản ánh ở hai nơi. Đầu tiên, phán đoán chất lượng cao của con người được áp dụng cho từng vấn đề, mặc dù vẫn sử dụng bồi thẩm đoàn như những người đánh giá hiệu suất “theo chủ nghĩa kỹ trị”. Thứ hai, có một cơ chế bỏ phiếu ngầm cho việc liệu "đánh bại Sauron" có phải là mục tiêu đúng đắn hay không (trái ngược với việc cố gắng thành lập liên minh với Sauron, hoặc trao cho hắn toàn bộ lãnh thổ phía đông một con sông quan trọng như một sự nhượng bộ hòa bình). Có những trường hợp sử dụng tinh tế khác cho phán đoán của con người, trong đó nhiệm vụ của bồi thẩm đoàn có giá trị trực tiếp hơn: ví dụ, hãy tưởng tượng một nền tảng truyền thông xã hội phi tập trung (hoặc cộng đồng phụ) trong đó nhiệm vụ của bồi thẩm đoàn là dán nhãn các bài đăng trên diễn đàn được chọn ngẫu nhiên là tuân thủ hay không tuân thủ các quy tắc của cộng đồng.
Trong mô hình tinh chỉnh khả năng phán đoán của con người, có một số biến mở:
Sự đánh đổi giữa chuyên môn và định kiến:Các bồi thẩm viên có kỹ năng thường chuyên về lĩnh vực chuyên môn của họ, vì vậy, bằng cách để họ tự chọn đánh giá, bạn sẽ nhận được thông tin đầu vào chất lượng cao hơn. Mặt khác, quá nhiều lựa chọn có thể dẫn đến thiên vị (ban giám khảo ưu tiên nội dung từ những người mà họ kết nối) hoặc điểm yếu trong việc lấy mẫu (một số nội dung không được xếp hạng một cách có hệ thống)
Phản biện Goodhart:Sẽ có nội dung cố gắng "chơi khăm" các cơ chế AI, ví dụ, những người đóng góp tạo ra một lượng lớn mã trông ấn tượng nhưng vô dụng. Điều này có nghĩa là bồi thẩm đoàn có thể phát hiện ra điều này, nhưng mô hình AI tĩnh sẽ không thể phát hiện ra trừ khi họ cố gắng hết sức. Một cách khả thi để phát hiện hành vi này là thêm một cơ chế thử thách mà qua đó cá nhân có thể đánh dấu những nỗ lực như vậy, đảm bảo rằng bồi thẩm đoàn sẽ đánh giá họ (do đó khuyến khích các nhà phát triển AI đảm bảo họ bị phát hiện đúng). Nếu bồi thẩm đoàn đồng ý, người tố giác sẽ nhận được phần thưởng, còn nếu bồi thẩm đoàn không đồng ý, họ sẽ phải nộp phạt.
Bạn sử dụng hàm chấm điểm nào? Một ý tưởng được sử dụng trong chương trình thí điểm Deep Grant hiện tại là hỏi bồi thẩm đoàn "A hay B nên được nhiều điểm hơn và nhiều hơn bao nhiêu?". Hàm tính điểm là score(x) = sum((log(x[B]) - log(x[A]) - log(juror_ratio)) ** 2 for (A, B, juror_ratio) in jury_answers): nghĩa là, đối với mỗi câu trả lời của bồi thẩm đoàn, hàm sẽ hỏi tỷ lệ trong danh sách đầy đủ cách xa tỷ lệ do bồi thẩm đoàn cung cấp bao nhiêu và thêm một hình phạt tỷ lệ với bình phương khoảng cách (trong không gian logarit). Điều này cho thấy không gian thiết kế của các hàm chấm điểm rất phong phú và việc lựa chọn hàm chấm điểm có liên quan đến việc bạn chọn câu hỏi nào để hỏi bồi thẩm đoàn.
Bạn thưởng cho những người gửi danh sách đầy đủ như thế nào? Trong trường hợp lý tưởng, bạn sẽ muốn thường xuyên trao phần thưởng khác không cho nhiều người tham gia để tránh cơ chế độc quyền, nhưng bạn cũng muốn người tham gia không thể tăng phần thưởng của mình bằng cách gửi cùng một bộ câu trả lời (hoặc đã sửa đổi một chút) nhiều lần. Một cách tiếp cận đầy hứa hẹn là tính toán trực tiếp các tổ hợp tuyến tính của danh sách đầy đủ các câu trả lời của ban giám khảo phù hợp nhất với ban giám khảo (các hệ số không âm và có tổng bằng 1) và sử dụng các hệ số này để chia phần thưởng. Có thể còn có những phương pháp khác nữa.
Nhìn chung, mục tiêu là sử dụng các cơ chế phán đoán của con người vốn được biết là có hiệu quả, giảm thiểu thiên vị và đã vượt qua được thử thách của thời gian (ví dụ, hãy tưởng tượng cấu trúc đối đầu của hệ thống tòa án bao gồm hai bên tranh chấp có nhiều thông tin nhưng bị thiên vị và một thẩm phán có ít thông tin nhưng có thể không bị thiên vị) và sử dụng thị trường AI mở như những công cụ dự đoán có độ trung thực cao và chi phí rất thấp cho các cơ chế đó (điều này tương tự như cách hoạt động của "sự tinh chỉnh" LLM).
Tài chính sâu
Tài chính sâu là việc áp dụng phán đoán tinh tế của con người vào việc điền vào các câu hỏi có trọng số ở đầu biểu đồ: "Tỷ lệ tín dụng của X thuộc về Y là bao nhiêu?"
Cách dễ nhất là minh họa trực tiếp bằng một ví dụ:

Đầu ra của ví dụ về tài chính sâu hai cấp: nguồn gốc tư tưởng của Ethereum. Xem mã Python tại đây.
Mục tiêu ở đây là phân phối công lao cho những đóng góp về mặt triết học cho Ethereum. Hãy cùng xem một ví dụ:
Vòng gọi vốn sâu mô phỏng được hiển thị ở đây quy 20,5% tín dụng cho phong trào cypherpunk và 9,2% cho chủ nghĩa tiến bộ công nghệ.
Tại mỗi nút, bạn đặt câu hỏi: đến mức nào thì đó là đóng góp ban đầu (để nó xứng đáng được ghi nhận) và đến mức nào thì đó là sự kết hợp lại của các ảnh hưởng ngược dòng khác? Đối với phong trào cypherpunk, có 40% là mới và 60% là phụ thuộc.
Sau đó, bạn có thể xem xét tác động ngược dòng của các nút này: Chủ nghĩa chính phủ nhỏ tự do và chủ nghĩa vô chính phủ đã giành được 17,3% công lao cho phong trào Cypherpunk, nhưng nền dân chủ trực tiếp của Thụy Sĩ chỉ nhận được 5%.
Nhưng hãy lưu ý rằng chủ nghĩa chính phủ nhỏ tự do và chủ nghĩa vô chính phủ cũng truyền cảm hứng cho triết lý tiền tệ của Bitcoin, vì vậy nó ảnh hưởng đến triết lý của Ethereum theo hai cách.
Để tính tổng đóng góp của chủ nghĩa tự do và chủ nghĩa vô chính phủ cho Ethereum, bạn cần nhân các cạnh trên mỗi đường dẫn rồi cộng các đường dẫn lại với nhau: 0,205 * 0,6 * 0,173 + 0,195 * 0,648 * 0,201 ~= 0,0466. Vì vậy, nếu bạn phải quyên góp 100 đô la để thưởng cho tất cả những người đóng góp cho triết lý của Ethereum, dựa trên vòng tài trợ sâu mô phỏng này, các nhà hoạt động theo chủ nghĩa tự do ở các quốc gia nhỏ và những người theo chủ nghĩa vô chính phủ sẽ nhận được 4,66 đô la.
Phương pháp này được thiết kế để áp dụng trong những lĩnh vực mà công trình được xây dựng dựa trên công trình trước đó và có tính cấu trúc cao. Học viện (ví dụ: biểu đồ trích dẫn) và phần mềm nguồn mở (ví dụ: sự phụ thuộc vào thư viện và nhánh) là hai ví dụ điển hình.
Mục tiêu của một hệ thống tài trợ sâu hoạt động tốt là tạo ra và duy trì một biểu đồ toàn cầu, trong đó bất kỳ nhà tài trợ nào quan tâm đến việc hỗ trợ một dự án cụ thể sẽ có thể gửi tiền đến địa chỉ đại diện cho nút đó và số tiền đó sẽ tự động lan truyền đến các phụ thuộc của nó (và theo cách đệ quy đến các phụ thuộc của chúng, v.v.) dựa trên trọng số của các cạnh của biểu đồ.
Bạn có thể tưởng tượng một giao thức phi tập trung phát hành token của mình với cơ chế tài chính sâu tích hợp sẵn: quản trị phi tập trung trong giao thức sẽ chọn ra một bồi thẩm đoàn và bồi thẩm đoàn sẽ điều hành cơ chế tài chính sâu khi giao thức tự động phát hành token và gửi chúng vào các nút tương ứng với chính nó. Bằng cách này, giao thức sẽ tự động thưởng cho tất cả những người đóng góp trực tiếp và gián tiếp, tương tự như cách phần thưởng khối của Bitcoin hoặc Ethereum thưởng cho một loại người đóng góp cụ thể (thợ đào). Bằng cách tác động đến trọng số của biên độ, ban giám khảo có thể liên tục xác định loại đóng góp mà họ coi trọng. Cơ chế này có thể đóng vai trò là giải pháp thay thế phi tập trung và bền vững lâu dài cho việc khai thác, bán hoặc airdrop một lần.
Tăng cường quyền riêng tư
Thông thường, việc đưa ra những phán đoán đúng đắn về các câu hỏi như trong các ví dụ trên đòi hỏi phải có quyền truy cập vào thông tin riêng tư: các cuộc trò chuyện nội bộ trong tổ chức của bạn, các bài viết bí mật từ các thành viên cộng đồng, v.v. Một lợi ích của việc “chỉ sử dụng một AI duy nhất”, đặc biệt là trong các thiết lập nhỏ hơn, là việc cung cấp cho một AI quyền truy cập thông tin sẽ được chấp nhận hơn là tiết lộ thông tin đó cho tất cả mọi người.
Để đưa ra phán đoán tinh tế của con người hoặc nguồn tài trợ lớn trong những trường hợp này, chúng ta có thể thử sử dụng các kỹ thuật mã hóa để cấp cho AI quyền truy cập thông tin riêng tư một cách an toàn. Ý tưởng là sử dụng tính toán đa bên (MPC), mã hóa đồng dạng hoàn toàn (FHE), môi trường thực thi đáng tin cậy (TEE) hoặc các cơ chế tương tự để cung cấp thông tin riêng tư, nhưng chỉ cho các cơ chế mà đầu ra duy nhất của chúng là "gửi danh sách đầy đủ" được đưa trực tiếp vào cơ chế.
Nếu bạn làm như vậy, thì bạn phải giới hạn bộ cơ chế cho các mô hình AI (không phải con người hoặc sự kết hợp AI+con người, vì bạn không thể để con người xem dữ liệu) và cụ thể cho các mô hình chạy trên một số chất nền cụ thể (ví dụ: MPC, FHE, phần cứng đáng tin cậy). Một hướng nghiên cứu chính là tìm ra những phiên bản thực tế, có hiệu quả và ý nghĩa đủ lớn trong tương lai gần.
Ưu điểm của thiết kế động cơ + vô lăng
Thiết kế như vậy có nhiều lợi ích thú vị. Lợi ích quan trọng nhất cho đến nay là chúng cho phép xây dựng DAO nơi mà cử tri là người kiểm soát hướng đi, nhưng họ không bị choáng ngợp bởi quá nhiều quyết định. Họ đạt được sự thỏa hiệp trong đó mỗi người không phải đưa ra N quyết định, nhưng họ có quyền đưa ra nhiều hơn một quyết định (cách thức ủy quyền thường hoạt động) và đưa ra những sở thích phong phú khó có thể diễn đạt trực tiếp.
Hơn nữa, cơ chế như vậy dường như có đặc tính làm mịn động cơ. Những gì tôi muốn nói ở đây khi nói đến “làm mịn động cơ” là sự kết hợp của hai yếu tố:
Sự lan tỏa: Không có hành động đơn lẻ nào được thực hiện bởi cơ chế bỏ phiếu sẽ có tác động quá lớn đến lợi ích của bất kỳ người tham gia nào.
Sự nhầm lẫn: Mối liên hệ giữa các quyết định bỏ phiếu và cách chúng ảnh hưởng đến lợi ích của những người tham gia phức tạp hơn và khó tính toán hơn.
Các thuật ngữ che giấu và khuếch tán được lấy từ mật mã học và chúng là các đặc tính chính của tính bảo mật của mật khẩu và hàm băm.
Một ví dụ tuyệt vời về việc làm trơn tru động cơ trong thế giới thực ngày nay chính là pháp quyền: thay vì thường xuyên thực hiện các hành động theo hình thức "trao cho công ty của Alice 200 triệu đô la", "phạt công ty của Bob 100 triệu đô la", v.v., các chính quyền cấp cao sẽ thông qua các quy tắc được thiết kế để áp dụng đồng đều cho nhiều bên tham gia, sau đó được một nhóm bên tham gia khác diễn giải. Khi cách tiếp cận này có hiệu quả, lợi ích là nó làm giảm đáng kể động cơ hối lộ và các hình thức tham nhũng khác. Khi nguyên tắc này bị vi phạm (thường xảy ra trong thực tế), những vấn đề này có thể nhanh chóng trở nên trầm trọng hơn rất nhiều.
AI rõ ràng sẽ đóng vai trò quan trọng trong tương lai và chắc chắn sẽ trở thành một phần quan trọng trong hoạt động quản trị trong tương lai. Nhưng có những rủi ro rõ ràng nếu bạn để AI tham gia vào hoạt động quản trị: AI có thành kiến, nó có thể bị cố tình làm hỏng trong quá trình đào tạo và công nghệ AI đang tiến bộ rất nhanh đến mức "đưa AI vào quyền lực" thực sự có thể có nghĩa là "đưa những người chịu trách nhiệm nâng cấp AI vào quyền lực". Sự phán đoán tinh tế của con người mở ra một con đường thay thế, cho phép chúng ta khai thác sức mạnh của AI theo cách thị trường tự do cởi mở trong khi vẫn duy trì nền dân chủ dưới sự kiểm soát của con người.