OpenAI âm thầm xây dựng AI an ninh mạng hạn chế trong khi ngành công nghiệp siết chặt quyền truy cập
OpenAI đang tiến sâu hơn vào lĩnh vực an ninh mạng, nhưng không theo cách mà công chúng dễ dàng nhận thấy.
Một báo cáo mới cho thấy công ty đang chuẩn bị một mô hình AI tiên tiến được thiết kế cho các hoạt động mạng, với quyền truy cập bị giới hạn cho một nhóm nhỏ các tổ chức được kiểm duyệt thay vì phát hành rộng rãi.
Chương trình Truy cập Tin cậy báo hiệu sự chuyển dịch sang triển khai AI có kiểm soát
Mô hình này dự kiến sẽ nằm trong chương trình “Truy cập Tin cậy cho An ninh mạng” của OpenAI, được giới thiệu lần đầu vào tháng Hai.
Sáng kiến này được thiết kế để giữ các hệ thống mạnh mẽ khỏi lưu thông chung và đặt chúng trực tiếp vào tay các nhóm an ninh phòng thủ.
Những người tham gia được hỗ trợ 10 triệu đô la tín dụng API, cùng với quyền truy cập vào các công cụ như GPT-5.3-Codex, hiện là mô hình an ninh mạng mạnh nhất của OpenAI.
Mặc dù chi tiết vẫn còn hạn chế, việc triển khai có giới hạn phản ánh một quyết định có chủ ý nhằm ưu tiên kiểm soát hơn là quy mô, đặc biệt khi các hệ thống AI ngày càng có khả năng xác định và khai thác các lỗ hổng.
Huyền thoại của Anthropic buộc ngành công nghiệp phải suy nghĩ lại về tính cởi mở
Thời điểm này không phải là ngẫu nhiên.
Đầu tuần này, Anthropic đã tiết lộ mô hình Claude Mythos Preview của mình, mô tả nó có khả năng phát hiện “hàng chục nghìn lỗ hổng” trên các hệ điều hành và trình duyệt chính.
Mô hình này được cho là đã xác định các lỗ hổng zero-day với mức độ tự chủ tương đương với các nhà nghiên cứu con người giàu kinh nghiệm, làm dấy lên những lo ngại ngay lập tức về việc lạm dụng.
Anthropic đã phản hồi bằng cách hạn chế quyền truy cập thông qua chương trình Project Glasswing của mình, chỉ phân phối mô hình này cho một nhóm các công ty được lựa chọn kỹ lưỡng, bao gồm các nhà cung cấp dịch vụ đám mây lớn, các nhà sản xuất chip và các công ty an ninh mạng.
Hơn 40 tổ chức liên quan đến cơ sở hạ tầng quan trọng đã được cấp quyền truy cập có kiểm soát theo các điều kiện nghiêm ngặt.
Mức độ mạnh mẽ nào là quá mức đối với việc phát hành công khai
Kết quả thử nghiệm nội bộ càng làm tăng thêm sự lo ngại.
Mythos Preview đã phát hiện ra những lỗ hổng chưa từng được biết đến trước đây trong các phần mềm được sử dụng rộng rãi, bao gồm một lỗ hổng 27 năm tuổi trong ngôn ngữ C và một vấn đề trong FFmpeg đã thoát khỏi hàng triệu lần kiểm tra tự động trước đó.
Anthropic nhấn mạnh rằng mô hình này không được đào tạo đặc biệt cho các nhiệm vụ bảo mật, có nghĩa là khả năng của nó xuất phát từ những cải tiến rộng hơn trong khả năng suy luận và hiểu mã.
Bản chất sử dụng kép đó, khả năng vừa sửa chữa vừa khai thác điểm yếu, đã trở thành mối quan tâm trọng tâm trong toàn ngành.
Các tiêu chuẩn bảo mật khó theo kịp sự tiến bộ của AI
Bước nhảy vọt nhanh chóng về khả năng cũng đang bộc lộ những hạn chế trong các khuôn khổ an toàn hiện có.
Anthropic Công ty này thừa nhận rằng Cybench, một công cụ đo lường được sử dụng để đánh giá rủi ro mạng trong các hệ thống AI, “không còn cung cấp đủ thông tin về khả năng của các mô hình tiên tiến hiện nay”.
Công ty này cho biết thêm rằng các đánh giá an toàn hiện nay liên quan đến “các quyết định mang tính chủ quan” và tiềm ẩn “sự không chắc chắn cơ bản hơn”, báo hiệu rằng các công cụ đo lường đã được thiết lập đang tụt hậu so với công nghệ mà chúng được dùng để đánh giá.
Các cơ quan quản lý gia tăng áp lực khi rủi ro mở rộng
Sự giám sát của chính phủ đang gia tăng cùng với những diễn biến này.
Các cơ quan liên bang đã tăng cường tập trung vào các giao thức an toàn AI kể từ đầu tháng 4, trong khi Anthropic đang phải đối mặt với áp lực sau khi Lầu Năm Góc được cho là đã gắn cờ công ty này là một rủi ro chuỗi cung ứng do các hạn chế liên quan đến giám sát và các trường hợp sử dụng liên quan đến vũ khí.
Các chuyên gia an ninh và cựu quan chức cũng đã cảnh báo rằng các hệ thống AI đủ tiên tiến có thể được sử dụng để phá vỡ cơ sở hạ tầng thiết yếu, bao gồm lưới điện, hệ thống cấp nước và mạng lưới tài chính.
Các công cụ mạng AI bắt đầu giống với công nghệ được phân loại
Trong bối cảnh này, quyết định hạn chế quyền truy cập của OpenAI dường như vừa mang tính định vị vừa mang tính phòng ngừa.
Bằng cách hạn chế phân phối sớm, công ty thể hiện sự phù hợp với các cơ quan quản lý và tránh xa các rủi ro của việc triển khai không kiểm soát.
Tại Đồng thời, điều này phản ánh một sự thay đổi rộng hơn trong cách thức phát hành trí tuệ nhân tạo tiên tiến.
Thay vì ra mắt công khai, các hệ thống có khả năng nhất ngày càng được xử lý như những tài sản nhạy cảm — được chia sẻ một cách chọn lọc, được quản lý bởi các thỏa thuận và dành riêng cho các tổ chức được đánh giá là có khả năng quản lý rủi ro của chúng.