Meta giới thiệu khuôn khổ để hạn chế các hệ thống AI có rủi ro cao
Siêu dữ liệu đã công bố Frontier AI Framework, một chính sách mới nhằm giải quyết các mối nguy tiềm ẩn của các hệ thống trí tuệ nhân tạo (AI) có rủi ro cao, đặc biệt là trong an ninh mạng và an ninh sinh học.
Công ty đã phân loại các mô hình AI thành hai mức độ rủi ro : rủi ro cao và rủi ro nghiêm trọng, mỗi loại được xác định bởi mức độ nghiêm trọng của tác hại tiềm ẩn.
Các mô hình AI có rủi ro cao, có thể tạo điều kiện cho các cuộc tấn công mạng hoặc sinh học, sẽ vẫn bị hạn chế cho đến khi có các biện pháp bảo vệ đầy đủ.
Trong khi đó, AI có nguy cơ nghiêm trọng - được coi là có khả năng gây ra hậu quả thảm khốc - sẽ bị dừng phát triển vô thời hạn.
Siêu dữ liệu Chiến lược của công ty ưu tiên các biện pháp kiểm soát nội bộ và bảo mật mạnh mẽ để ngăn chặn truy cập trái phép, phản ánh cam kết của công ty trong việc giảm thiểu rủi ro liên quan đến công nghệ AI tiên tiến.
Những động thái này nhằm ứng phó với những lo ngại ngày càng tăng về tác động của AI đối với quyền riêng tư và bảo mật dữ liệu.
Các biện pháp bảo mật AI mạnh mẽ để giảm thiểu rủi ro
Meta sẽ đánh giá rủi ro của hệ thống AI thông qua sự kết hợp giữa nghiên cứu nội bộ và bên ngoài, thừa nhận rằng không có bài kiểm tra đơn lẻ nào có thể đo lường rủi ro một cách toàn diện.
Đánh giá của chuyên gia sẽ đóng vai trò quan trọng trong việc ra quyết định, với quy trình đánh giá có cấu trúc được hướng dẫn bởi ban lãnh đạo cấp cao giám sát phân loại rủi ro cuối cùng.
Đối với các hệ thống AI có rủi ro cao, Meta sẽ triển khai các biện pháp giảm thiểu để đảm bảo triển khai an toàn, ngăn ngừa việc sử dụng sai mục đích trong khi vẫn bảo toàn chức năng dự kiến của hệ thống.
Trong trường hợp các mô hình AI có rủi ro nghiêm trọng, quá trình phát triển sẽ bị tạm dừng cho đến khi có các giao thức an toàn hiệu quả để đảm bảo việc phát hành được kiểm soát và an toàn.
Cách tiếp cận này nhấn mạnhSiêu dữ liệu Cam kết cân bằng giữa đổi mới và trách nhiệm trong phát triển AI.
Meta giải quyết những lo lắng, cam kết phát triển AI minh bạch
Meta đã đi đầu trong phương pháp tiếp cận mở đối với phát triển AI, cung cấp quyền truy cập rộng rãi vào các mô hình Llama, dẫn đến hàng triệu lượt tải xuống và áp dụng rộng rãi.
Tuy nhiên, sự cởi mở này đã làm dấy lên lo ngại về khả năng sử dụng sai mục đích, bao gồm các báo cáo về việc đối thủ của Hoa Kỳ tận dụng Llama để tạo ra một chatbot quốc phòng.
Để đáp lại,Siêu dữ liệu đang giới thiệu Frontier AI Framework, nhằm mục đích cân bằng những rủi ro này trong khi vẫn tiếp tục duy trì cam kết đổi mới AI có trách nhiệm và dễ tiếp cận.