Giám đốc điều hành gần đây của Tổng thống Joe Bidenđặt hàng , được phát hành vào ngày 30 tháng 10, đã gây lo ngại trong cộng đồng công nghệ.
Lệnh toàn diện này nhằm mục đích thiết lập các tiêu chuẩn an toàn trí tuệ nhân tạo (AI) nghiêm ngặt, tập trung vào việc bảo vệ công dân, tổ chức chính phủ và công ty.
Nó giới thiệu sáu tiêu chuẩn mới về an toàn và bảo mật AI, tất cả đều phù hợp với các nguyên tắc "an toàn, bảo mật, tin cậy, cởi mở."
Nhiệm vụ minh bạch: Chia sẻ kết quả kiểm tra an toàn
Một khía cạnh đáng chú ý của mệnh lệnh hành pháp là nhiệm vụ đối với các công ty phát triển "các mô hình nền tảng gây ra rủi ro đáng kể đối với an ninh quốc gia, an ninh kinh tế hoặc sức khỏe cộng đồng". để chia sẻ kết quả kiểm tra an toàn của họ với các quan chức.
Yêu cầu này nhằm đảm bảo tính minh bạch và trách nhiệm giải trình trong phát triển AI, thúc đẩy các công nghệ AI an toàn và đáng tin cậy hơn.
Vấn đề nan giải về nguồn mở: Thiếu hướng dẫn rõ ràng
Bất chấp ý định tốt của nó, lệnh điều hành đã gây ra mối lo ngại trong cộng đồng AI, đặc biệt là trong lĩnh vực phát triển nguồn mở.
Việc thiếu các chi tiết triển khai cụ thể đã đặt ra câu hỏi về việc lệnh này sẽ tác động như thế nào đến AI nguồn mở, vốn dựa vào sự đổi mới dựa vào cộng đồng.
Sự mơ hồ này đã khiến các nhà phát triển không chắc chắn về ý nghĩa của việc phát triển mô hình cấp cao nhất.
Phản ứng trái chiều từ các chuyên gia trong ngành
Các chuyên gia trong ngành đã bày tỏ những phản ứng trái chiều trước lệnh điều hành. Adam Struck, đối tác sáng lập tại Struck Capital và là nhà đầu tư AI, ca ngợi sự công nhận của lệnh về tiềm năng biến đổi của AI.
Tuy nhiên, ông cũng nhấn mạnh những thách thức mà các nhà phát triển phải đối mặt trong việc dự đoán rủi ro trong tương lai, đặc biệt là trong cộng đồng nguồn mở, nơi mệnh lệnh thiếu chỉ thị rõ ràng.
Lệnh hành pháp nêu rõ ý định của chính phủ trong việc quản lý các hướng dẫn về AI thông qua các giám đốc AI và ban quản trị trong các cơ quan quản lý.
Cách tiếp cận này ngụ ý rằng các công ty hoạt động trong các cơ quan này sẽ cần phải tuân thủ các khung pháp lý đã được chính phủ phê duyệt. Các khuôn khổ này dự kiến sẽ tập trung vào việc tuân thủ dữ liệu, bảo vệ quyền riêng tư và phát triển các thuật toán không thiên vị.
Vận động và quan ngại về nguồn mở
Martin Casado, một đối tác chung của công ty đầu tư mạo hiểm Andreessen Horowitz, bày tỏ lo ngại về tác động tiềm tàng của lệnh điều hành đối với AI nguồn mở.
Ông cùng với các chuyên gia AI khác đã gửi thư cho chính quyền Biden, nhấn mạnh tầm quan trọng của nguồn mở trong việc duy trì sự an toàn của phần mềm và ngăn chặn tình trạng độc quyền. Các nhà phê bình cho rằng định nghĩa rộng rãi của lệnh về các loại mô hình AI có thể đặt ra thách thức cho các công ty nhỏ hơn, những công ty này có thể gặp khó khăn trong việc đáp ứng các yêu cầu được thiết kế cho các công ty lớn hơn.
Sự đổi mới có nguy cơ: Tác động bất lợi
Jeff Amico của Gensyn lặp lại những lo ngại này, gọi lệnh này là bất lợi cho sự đổi mới ở Hoa Kỳ.
Tác động tiềm tàng của việc quản lý quá mức đối với tiềm năng biến đổi của AI và khả năng cản trở sự đổi mới trong các ngành khác nhau của AI đã trở thành một điểm gây tranh cãi.
Matthew Putman, Giám đốc điều hành và đồng sáng lập của Nanotronics, nhấn mạnh sự cần thiết của các khung pháp lý ưu tiên sự an toàn của người tiêu dùng và phát triển AI có đạo đức.
Trong khi cảnh báo về việc quản lý quá mức, ông cũng chỉ ra rằng những lo ngại về tiềm năng thảm khốc của AI thường bị phóng đại. Ông nhấn mạnh những tác động tích cực của AI, đặc biệt là trong sản xuất tiên tiến, công nghệ sinh học và năng lượng, nơi công nghệ AI thúc đẩy cuộc cách mạng bền vững bằng cách cải tiến quy trình, giảm chất thải và cắt giảm khí thải.
Con đường phía trước: Hiệp hội Viện An toàn AI
Khi lệnh điều hành được hình thành, Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ và Bộ Thương mại đã thành lập Hiệp hội Viện An toàn Trí tuệ Nhân tạo.
Liên minh này tìm kiếm các thành viên để đóng góp cho các nỗ lực an toàn AI, đảm bảo rằng các tiêu chuẩn an toàn được thiết lập một cách cân bằng nhằm khuyến khích sự đổi mới đồng thời bảo vệ công chúng.
Sắc lệnh hành pháp của Tổng thống Biden, tuy có thiện chí nhưng lại có nguy cơ quy định quá mức, có thể cản trở tiềm năng biến đổi của AI và cản trở sự đổi mới trong các ngành khác nhau. Đạt được sự cân bằng hợp lý giữa an toàn và đổi mới vẫn là một thách thức đáng kể khi cộng đồng AI điều hướng bối cảnh ngày càng phát triển của các quy định về AI.