Hình ảnh: MLYearning
Đại học Northwestern gần đây đã tiết lộ một lỗ hổng nghiêm trọng trong Máy biến áp được đào tạo trước sáng tạo (GPT) tùy chỉnh.
Bất chấp tính linh hoạt và khả năng thích ứng của chúng, các chatbot AI tiên tiến này dễ bị tấn công tiêm nhiễm ngay lập tức, có nguy cơ làm lộ thông tin nhạy cảm.
GPT tùy chỉnh, được phát triển bằng ChatGPT của OpenAI và Mô hình ngôn ngữ lớn GPT-4 Turbo, kết hợp các yếu tố độc đáo như lời nhắc, bộ dữ liệu và hướng dẫn xử lý cụ thể cho các tác vụ chuyên biệt.
Hình ảnh: Giải mã
Tuy nhiên, những tùy chỉnh này và mọi dữ liệu bí mật được sử dụng trong quá trình tạo chúng đều có thể dễ dàng bị truy cập trái phép bởi các bên trái phép.
Một thử nghiệm của Decrypt đã chứng minh sự dễ dàng trong việc trích xuất dữ liệu bí mật và đầy đủ thông tin nhanh chóng và kịp thời của GPT tùy chỉnh thông qua việc hack nhanh chóng cơ bản.
Khi thử nghiệm hơn 200 GPT tùy chỉnh, các nhà nghiên cứu nhận thấy khả năng xảy ra những vi phạm như vậy là rất cao, bao gồm cả khả năng trích xuất các lời nhắc ban đầu và quyền truy cập vào các tệp riêng tư.
Nghiên cứu nhấn mạnh hai rủi ro lớn: quyền sở hữu trí tuệ bị xâm phạm và quyền riêng tư của người dùng bị xâm phạm.
Những kẻ tấn công có thể khai thác GPT để trích xuất cấu hình cốt lõi và lời nhắc ("trích xuất lời nhắc hệ thống") hoặc rò rỉ tập dữ liệu đào tạo bí mật ("rò rỉ tệp").
Các biện pháp phòng thủ hiện tại như lời nhắc phòng thủ tỏ ra không hiệu quả trước những lời nhắc nhở phức tạp hơn của đối thủ.
Dễ bị tổn thương hơn?
Các nhà nghiên cứu lập luận về một cách tiếp cận toàn diện hơn để bảo vệ các mô hình AI này, nhấn mạnh rằng những kẻ tấn công quyết tâm có thể khai thác các lỗ hổng hiện tại.
Nghiên cứu kêu gọi cộng đồng AI phát triển các biện pháp bảo mật mạnh mẽ hơn, cho thấy rằng các lời nhắc phòng thủ đơn giản là không đủ để chống lại các kỹ thuật khai thác tiên tiến như vậy.
Với việc tùy chỉnh GPT ngày càng tăng mang lại tiềm năng to lớn, nghiên cứu này đóng vai trò như một lời nhắc nhở quan trọng về các rủi ro bảo mật liên quan.
Người dùng nên thận trọng, đặc biệt là với dữ liệu nhạy cảm, nhấn mạnh sự cần thiết phải tăng cường bảo mật AI mà không ảnh hưởng đến quyền riêng tư và an toàn của người dùng.
Nghiên cứu hoàn chỉnh của Đại học Northwestern có sẵn để đọcđây .