Tác giả: Tayyub Yaqoob, CoinTelegraph; Người biên soạn: Deng Tong, Golden Finance
1. Triển vọng và tầm quan trọng của Quản trị trí tuệ nhân tạo
Quản trị trí tuệ nhân tạo bao gồm việc đảm bảo trách nhiệm của quản trị trí tuệ nhân tạo công nghệ thông minh Các quy tắc, nguyên tắc và tiêu chuẩn được phát triển và sử dụng một cách có trách nhiệm.
Quản trị AI là một thuật ngữ toàn diện bao gồm các định nghĩa, nguyên tắc, hướng dẫn và chính sách được thiết kế nhằm hướng dẫn việc tạo ra và sử dụng công nghệ trí tuệ nhân tạo (AI) một cách có đạo đức. Khung quản trị này rất quan trọng để giải quyết nhiều vấn đề và thách thức liên quan đến AI, chẳng hạn như việc ra quyết định có đạo đức, quyền riêng tư dữ liệu, sai lệch thuật toán và tác động rộng hơn của AI đối với xã hội.
Khái niệm quản trị trí tuệ nhân tạo vượt ra ngoài cấp độ kỹ thuật thuần túy và bao gồm các cấp độ pháp lý, xã hội và đạo đức. Đó là cơ sở hạ tầng để các tổ chức và chính phủ đảm bảo rằng các hệ thống AI được phát triển và triển khai theo cách có lợi và không gây ra tác hại ngoài ý muốn.
Về cơ bản, quản trị AI tạo thành xương sống cho việc phát triển và sử dụng AI có trách nhiệm, cung cấp một bộ hướng dẫn cho các bên liên quan khác nhau, bao gồm các tiêu chuẩn và thông số kỹ thuật của nhà phát triển AI, nhà hoạch định chính sách và cuối cùng là người dùng. Bằng cách thiết lập rõ ràng các hướng dẫn và nguyên tắc đạo đức, quản trị AI nhằm mục đích dung hòa sự tiến bộ nhanh chóng của công nghệ AI với các giá trị xã hội và đạo đức của cộng đồng nhân loại.
2. Các cấp độ quản trị trí tuệ nhân tạo
Quản trị trí tuệ nhân tạo thích ứng với nhu cầu của tổ chức. Không có cấp độ cố định và các khuôn khổ như NIST và OECD được sử dụng làm hướng dẫn.
Việc quản trị AI không tuân theo một mức tiêu chuẩn chung nào đó, như đã thấy trong các lĩnh vực như an ninh mạng. Thay vào đó, nó tận dụng các phương pháp và khuôn khổ có cấu trúc từ các thực thể khác nhau, cho phép các tổ chức điều chỉnh chúng theo yêu cầu cụ thể của họ.
Các khuôn khổ như Khung quản lý rủi ro trí tuệ nhân tạo của Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST), Nguyên tắc về trí tuệ nhân tạo của Tổ chức Hợp tác và Phát triển Kinh tế (OECD) và Nguyên tắc đạo đức của Ủy ban Châu Âu đối với Trí tuệ nhân tạo đáng tin cậy là một trong những khuôn khổ quan trọng nhất. Chúng đề cập đến một số chủ đề, bao gồm tính minh bạch, trách nhiệm giải trình, sự công bằng, quyền riêng tư, an toàn và bảo mật, cung cấp nền tảng vững chắc cho thực tiễn quản trị.
Mức độ áp dụng quản trị phụ thuộc vào quy mô của tổ chức, mức độ phức tạp của hệ thống AI được sử dụng và môi trường pháp lý nơi tổ chức hoạt động. Ba cách tiếp cận chính đối với quản trị AI là:
Quản trị không chính thức
Hình thức cơ bản nhất dựa trên các nguyên tắc và giá trị cốt lõi của tổ chức, với một số quy trình không chính thức như ủy ban đánh giá đạo đức, nhưng thiếu cơ cấu quản trị chính thức.
Quản trị đặc biệt
Một cách tiếp cận có cấu trúc hơn so với quản trị không chính thức bao gồm việc phát triển các chính sách và thủ tục cụ thể để giải quyết những thách thức cụ thể. Tuy nhiên, nó có thể không toàn diện hoặc có hệ thống.
Quản trị chính thức
Cách tiếp cận toàn diện nhất yêu cầu phát triển khung quản trị AI rộng rãi phản ánh các giá trị của tổ chức, nhất quán với các yêu cầu pháp lý và bao gồm đánh giá rủi ro chi tiết và quy trình giám sát có đạo đức .
3. Ví dụ về Quản trị trí tuệ nhân tạo
Quản trị trí tuệ nhân tạo được minh họa thông qua nhiều ví dụ khác nhau như GDPR, Nguyên tắc trí tuệ nhân tạo của OECD và Ủy ban đạo đức doanh nghiệp, thể hiện trí tuệ nhân tạo có trách nhiệm. cách tiếp cận nhiều mặt để sử dụng thông minh.
Quản trị AI được thể hiện thông qua các chính sách, khuôn khổ và thực tiễn nhằm mục đích triển khai công nghệ AI một cách có đạo đức của các tổ chức và chính phủ. Những ví dụ này nêu bật việc áp dụng quản trị AI trong các tình huống khác nhau:
Quy định chung về bảo vệ dữ liệu (GDPR) là một ví dụ điển hình về quản trị AI trong việc bảo vệ dữ liệu cá nhân và quyền riêng tư. Mặc dù GDPR không chỉ tập trung vào AI nhưng các quy định của nó có tác động đáng kể đến các ứng dụng AI, đặc biệt là những ứng dụng xử lý dữ liệu cá nhân trong EU, nhấn mạnh sự cần thiết của tính minh bạch và bảo vệ dữ liệu.
Các nguyên tắc AI của OECD, được hơn 40 quốc gia thông qua, nhấn mạnh cam kết về AI đáng tin cậy. Những nguyên tắc này ủng hộ rằng các hệ thống trí tuệ nhân tạo phải minh bạch, công bằng và có trách nhiệm, đồng thời hướng dẫn các nỗ lực của cộng đồng quốc tế hướng tới việc phát triển và sử dụng trí tuệ nhân tạo một cách có trách nhiệm.
Ủy ban đạo đức AI của doanh nghiệp đại diện cho một cách tiếp cận mang tính tổ chức đối với việc quản trị AI. Nhiều công ty đã thành lập ủy ban đạo đức để giám sát các dự án AI và đảm bảo rằng chúng tuân thủ các chuẩn mực đạo đức và kỳ vọng của xã hội. Ví dụ: Hội đồng đạo đức AI của IBM đánh giá các sản phẩm AI để đảm bảo chúng tuân thủ quy tắc đạo đức AI của công ty và thu hút một nhóm đa dạng từ các lĩnh vực khác nhau để cung cấp sự giám sát toàn diện.
4. Thu hút các bên liên quan tham gia quản trị AI
Sự tham gia của các bên liên quan là rất quan trọng để phát triển một khuôn khổ quản trị AI toàn diện và hiệu quả, phản ánh nhiều quan điểm khác nhau.
Một loạt các bên liên quan, bao gồm các cơ quan chính phủ, tổ chức quốc tế, hiệp hội doanh nghiệp và tổ chức xã hội dân sự, chịu trách nhiệm quản trị AI. Vì các khu vực và quốc gia khác nhau có bối cảnh pháp lý, văn hóa và chính trị khác nhau nên cơ cấu giám sát của họ cũng có thể khác nhau đáng kể.
Sự phức tạp của quản trị trí tuệ nhân tạo đòi hỏi sự tham gia tích cực của tất cả các thành phần trong xã hội, bao gồm chính phủ, ngành công nghiệp, học viện và xã hội dân sự. Việc thu hút các bên liên quan khác nhau đảm bảo rằng nhiều quan điểm được xem xét khi phát triển khung quản trị AI, từ đó tạo ra các chính sách mạnh mẽ và toàn diện hơn.
Cam kết này cũng thúc đẩy tinh thần trách nhiệm chung đối với việc phát triển và sử dụng công nghệ AI một cách có đạo đức. Bằng cách thu hút các bên liên quan tham gia vào quá trình quản trị, các nhà hoạch định chính sách có thể rút ra nhiều kiến thức chuyên môn và hiểu biết sâu sắc để đảm bảo rằng khuôn khổ quản trị AI được cung cấp đầy đủ thông tin, có khả năng thích ứng và có thể giải quyết các thách thức và cơ hội nhiều mặt do AI mang lại.
Ví dụ: sự tăng trưởng theo cấp số nhân trong việc thu thập và xử lý dữ liệu đã gây ra những lo ngại nghiêm trọng về quyền riêng tư, đòi hỏi các khuôn khổ quản trị nghiêm ngặt để bảo vệ thông tin cá nhân của các cá nhân. Điều này liên quan đến việc tuân thủ các quy định bảo vệ dữ liệu toàn cầu như GDPR, cũng như sự tham gia tích cực của các bên liên quan trong việc triển khai các công nghệ bảo mật dữ liệu tiên tiến để ngăn chặn truy cập trái phép và rò rỉ dữ liệu.
5. Dẫn đầu tương lai của quản trị trí tuệ nhân tạo
Tương lai của quản trị trí tuệ nhân tạo sẽ được quyết định bởi tiến bộ công nghệ, các giá trị xã hội ngày càng phát triển và nhu cầu hợp tác quốc tế.
Khi công nghệ AI phát triển, framework sẽ quản lý nó. Tương lai của quản trị AI có thể sẽ tập trung nhiều hơn vào các hoạt động AI bền vững và lấy con người làm trung tâm.
AI bền vững tập trung vào sự phát triển lâu dài của các công nghệ thân thiện với môi trường và có hiệu quả kinh tế. AI lấy con người làm trung tâm ưu tiên các hệ thống nâng cao năng lực và sức khỏe của con người, đảm bảo rằng AI trở thành công cụ nâng cao tiềm năng của con người thay vì thay thế nó.
Ngoài ra, tính chất toàn cầu của công nghệ trí tuệ nhân tạo đòi hỏi phải có sự hợp tác quốc tế trong quản trị trí tuệ nhân tạo. Điều này bao gồm việc hài hòa các khung pháp lý xuyên biên giới, thúc đẩy các tiêu chuẩn toàn cầu về đạo đức AI và đảm bảo rằng các công nghệ AI có thể được triển khai một cách an toàn trên các môi trường văn hóa và quy định khác nhau. Hợp tác toàn cầu là chìa khóa để giải quyết các thách thức như luồng dữ liệu xuyên biên giới và đảm bảo rằng lợi ích của AI được chia sẻ một cách công bằng trên toàn thế giới.