Trong thế giới được điều khiển bởi AI ngày nay, một vấn đề quan trọng vẫn còn ẩn giấu là sự thiếu minh bạch. Tính minh bạch của AI là điều cần thiết để xây dựng niềm tin vào các hệ thống AI, đặc biệt là các hệ thống được sử dụng trong các ứng dụng có rủi ro cao. Khi các bên liên quan có thể hiểu rõ cách thức hoạt động của hệ thống AI, họ có nhiều khả năng tin tưởng vào các quyết định của nó hơn.
Phân tích toàn diện về tính minh bạch của công ty AI
Trong nỗ lực hợp tác giữa các nhà nghiên cứu từ Stanford, MIT và Princeton, một đánh giá kỹ lưỡng về tính minh bạch giữa các nhà phát triển mô hình nền tảng đã tiết lộ những phát hiện đáng chú ý. Cái nàyđánh giá , do các chuyên gia bên thứ ba thực hiện, làm sáng tỏ tình trạng minh bạch trong ngành AI.
Thông qua đánh giá, nó cho thấy rằng ngay cả mô hình có điểm cao nhất trong số các nhà phát triển mô hình nền tảng cũng chỉ đạt được 54/100 điểm, nhấn mạnh sự thiếu minh bạch cơ bản của ngành.
Nguồn:Stanford CRFM
Ít minh bạch trên diện rộng
Điểm trung bình của tất cả các nhà phát triển chỉ ở mức 37%. Điều đáng ngạc nhiên là chỉ có 82 trong số 100 chỉ số được ít nhất một nhà phát triển đáp ứng, điều này nhấn mạnh đến khả năng cải thiện các tiêu chuẩn minh bạch. Điều thú vị là, các nhà phát triển mô hình nền tảng mở nổi lên như những người dẫn đầu, với hai trong số ba người đạt được điểm số cao nhất. Những nhà phát triển hàng đầu này cho phép tải xuống trọng số mô hình của họ, đặt ra tiêu chuẩn về tính minh bạch. AI ổn định, mặc dù không phải là nguồn mở, nhưng vẫn bám sát ở vị trí thứ tư.
Phân tích sâu sắc theo tên miền và tên miền phụ
Đánh giá toàn diện xác định 100 chỉ số được phân loại thành ba lĩnh vực quan trọng:
Thượng nguồn: Liên quan đến việc xây dựng các mô hình nền tảng, điều này bao gồm các tài nguyên tính toán, dữ liệu và lao động. Đáng chú ý, các nhà phát triển thiếu dữ liệu, lao động và tên miền phụ tính toán, chỉ đạt lần lượt 20%, 17% và 17%.
Người mẫu: Miền này tập trung vào các thuộc tính và chức năng của mô hình nền móng. Các nhà phát triển thể hiện tính minh bạch trong các lĩnh vực như bảo vệ dữ liệu người dùng (67%), phát triển mô hình (63%), khả năng (62%) và các hạn chế (60%).
Hạ lưu: Miền này đi sâu vào việc phân phối và sử dụng mô hình, phản ánh tính minh bạch trong cách mô hình tác động đến người dùng, các bản cập nhật và chính sách quản lý.
Nguồn:Stanford CRFM
Nguồn:Stanford CRFM
Phân tích chi tiết thông qua tên miền phụ
Mặc dù các nhà phát triển thể hiện mức độ minh bạch trong các tên miền phụ khác nhau nhưng vẫn còn nhiều chỗ cần cải thiện. Chẳng hạn, không nhà phát triển nào tiết lộ cách họ cung cấp quyền truy cập vào dữ liệu sử dụng. Rất ít nhà phát triển công khai thừa nhận những hạn chế trong mô hình của họ hoặc cho phép đánh giá của bên thứ ba. Tương tự, chỉ có ba nhà phát triển tiết lộ các thành phần mô hình và chỉ có hai nhà phát triển tiết lộ kích thước mô hình.
Mô hình mở và mô hình đóng: Sự phân chia lớn
Cuộc tranh luận đang diễn ra trong giới AI về việc liệu các mô hình nên mở hay đóng là một vấn đề gây tranh cãi. Các mô hình mở vượt trội hơn các mô hình đóng của chúng, với hai trong số ba mô hình mở vượt trội hơn cả mô hình đóng tốt nhất. Phần lớn sự chênh lệch này bắt nguồn từ sự thiếu minh bạch giữa các nhà phát triển khép kín, đặc biệt là trong lĩnh vực thượng nguồn, liên quan đến dữ liệu, lao động và chi tiết tính toán.
Nguồn:Stanford CRFM
Điểm mù của tác hại AI
Bài viết đặt ra những câu hỏi quan trọng về tác động của AI đối với xã hội. Tần suất chatbot đưa ra lời khuyên y tế không chính xác là bao nhiêu? Các công cụ tìm kiếm AI có cáo buộc sai trái các cá nhân không? Người dùng có tiếp xúc với nội dung sai lệch do AI tạo ra không? Đáng buồn thay, những câu hỏi này thường không có câu trả lời, nhấn mạnh sự cần thiết của sự minh bạch. Trên hết, AI có thể gây hại bằng cách tạo nội dung tục tĩu, quảng bá thông tin sai lệch và tạo ra nội dung không mong muốn. Sự minh bạch là cần thiết cho tất cả những trường hợp này.
Do đó, báo cáo minh bạch phải xác định và phát hiện tác hại, tiết lộ tần suất xuất hiện nội dung có hại và đánh giá tính hiệu quả của cơ chế thực thi và bộ lọc an toàn. Điều này rất quan trọng đối với các ứng dụng AI có mục đích chung và có rủi ro cao.
Vượt qua sự phản kháng và cân nhắc pháp lý
Các công ty có thể phản đối việc báo cáo minh bạch vì nhiều lý do, bao gồm cả nguy cơ tiềm ẩn rủi ro về uy tín và pháp lý. Tuy nhiên, việc thiếu minh bạch có thể gây tổn hại đến danh tiếng của họ về lâu dài. Thị trường cũng quá tập trung, làm tăng tính minh bạch có lợi cho người tiêu dùng và thị trường nói chung.
Cuối cùng, nếu các công ty AI không tự nguyện thực hiện tính minh bạch, các nhà hoạch định chính sách có thể phải can thiệp để đảm bảo trách nhiệm giải trình.