Mối lo ngại về an ninh gia tăng do AI do Trung Quốc sản xuất có khả năng dạy các hoạt động tội phạm
Một mô hình AI do Trung Quốc phát triển đang bị giám sát chặt chẽ sau khi các cuộc thử nghiệm cho thấy nó có thể tạo ra nội dung có thể bị khai thác cho mục đích tội phạm.
Mô hình R1, do công ty khởi nghiệp DeepSeek có trụ sở tại Bắc Kinh phát hành vào tháng 1 năm 2025, được phát hiện có thể cung cấp hướng dẫn từng bước về các hoạt động bất hợp pháp, bao gồm viết phần mềm độc hại và chế tạo bom xăng.
Mô hình AI dễ dàng chia sẻ mã phần mềm độc hại
Chuyên gia an ninh mạng Takashi Yoshikawa, từ công ty Mitsui Bussan Secure Directions có trụ sở tại Tokyo, đã tiến hành các cuộc thử nghiệm để đánh giá khả năng sử dụng sai mục đích.
Khi được yêu cầu đưa ra hướng dẫn nhằm đưa ra phản hồi phi đạo đức, mô hình R1 trả về mã nguồn ransomware hoạt động đầy đủ.
Mặc dù có khuyến cáo không nên sử dụng với mục đích xấu, Yoshikawa vẫn nêu bật sự khác biệt quan trọng trong cách phản ứng của các mô hình AI cạnh tranh.
Ông ấy nói,
“Khi tôi đưa ra hướng dẫn tương tự cho ChatGPT, nó từ chối trả lời.”
Điều này rõ ràng cho thấy R1 của DeepSeek thiếu các biện pháp bảo vệ tương tự.
Nhóm an ninh mạng Hoa Kỳ xác nhận việc khai thác dễ dàng
Mối lo ngại ngày càng sâu sắc sau khi Palo Alto Networks, một công ty an ninh mạng có trụ sở tại Hoa Kỳ,tiến hành cuộc điều tra riêng của mình .
Nhóm nghiên cứu xác nhận rằng người dùng không có kiến thức chuyên môn về kỹ thuật vẫn có thể kích hoạt mô hình R1 tạo ra nội dung giống như các chương trình được thiết kế để đánh cắp thông tin đăng nhập.
Nhóm nghiên cứu nhấn mạnh vào việc thiếu các rào cản trong thiết kế, báo cáo của AI,
“Những câu trả lời mà nó đưa ra đủ đơn giản để bất kỳ ai cũng có thể làm theo và thực hiện nhanh chóng.”
Đánh giá của họ cho thấy DeepSeek có thể đã chọn ưu tiên ra mắt nhanh chóng thay vì nhúng các giao thức bảo mật mạnh mẽ.
Rủi ro về quyền riêng tư gây ra những hạn chế ngày càng tăng
Ngoài khả năng sử dụng sai mục đích của mô hình, DeepSeek còn phải đối mặt với các câu hỏi về quyền riêng tư dữ liệu.
Công ty lưu trữ dữ liệu người dùng trên các máy chủ đặt tại Trung Quốc, làm dấy lên lo ngại về quyền truy cập và kiểm soát.
Do đó, một số quốc gia — bao gồm Hàn Quốc, Úc và Đài Loan — đã có động thái hạn chế hoặc cấm sử dụng công nghệ DeepSeek trong môi trường chính thức hoặc doanh nghiệp.
Ở Nhật Bản, các thành phố và công ty cũng đang áp dụng biện pháp thận trọng tương tự.
Theo Giáo sư Kazuhiro Taira của Đại học J.F. Oberlin,
“Khi mọi người sử dụng AI của DeepSeek, họ cần cân nhắc cẩn thận không chỉ hiệu suất và chi phí mà còn cả tính an toàn và bảo mật.”
Các chuyên gia kêu gọi bảo vệ toàn ngành
Với hiệu suất của R1 được cho là ngang bằng với các mô hình như ChatGPT và có mức giá thấp hơn, sự phát triển nhanh chóng của nó đã thu hút sự chú ý trên khắp thị trường toàn cầu.
Tuy nhiên, các chuyên gia cảnh báo rằng những mô hình như vậy không nên được phát hành nếu không có biện pháp bảo vệ vững chắc.
Yoshikawa nói,
“Nếu số lượng các mô hình AI có khả năng bị sử dụng sai mục đích tăng lên, chúng có thể được sử dụng cho mục đích phạm tội. Toàn bộ ngành công nghiệp nên nỗ lực tăng cường các biện pháp ngăn chặn việc sử dụng sai mục đích các mô hình AI tạo ra.”
Trường hợp R1 của DeepSeek hiện đang làm dấy lên những cuộc thảo luận rộng rãi hơn về sự cân bằng giữa khả năng tiếp cận AI, tốc độ thương mại và trách nhiệm đạo đức.