SlowMist và Bitget đã cùng nhau phát hành một báo cáo về bảo mật của AI Agent. Báo cáo chỉ ra rằng khi các AI agent đảm nhận các nhiệm vụ như phân tích thị trường, xây dựng chiến lược và giao dịch tự động trong hệ sinh thái Web3, bề mặt tấn công của chúng đang mở rộng. Các mối đe dọa bảo mật chính bao gồm bảy cấp độ: các cuộc tấn công chèn từ khóa có thể thao túng logic ra quyết định của agent; hệ sinh thái Skills/plugin tiềm ẩn rủi ro làm suy yếu chuỗi cung ứng; SlowMist đã phát hiện hơn 400 mẫu Skill độc hại trong trung tâm plugin OpenClaw ClawHub, thể hiện các đặc điểm của các cuộc tấn công quy mô lớn có tổ chức; lớp điều phối tác vụ có thể bị can thiệp vào các tham số chính, dẫn đến thực thi bất thường; thông tin nhạy cảm trong môi trường IDE/CLI có thể bị rò rỉ bởi các plugin độc hại; ảo ảnh mô hình có thể gây ra tổn thất tài chính không thể phục hồi trong các hoạt động trên chuỗi; tính không thể đảo ngược của các hoạt động Web3 có giá trị cao làm tăng rủi ro tự động hóa; và việc thực thi với đặc quyền cao có thể dẫn đến rủi ro ở cấp độ hệ thống. Nhóm bảo mật của Bitget đưa ra các khuyến nghị bảo vệ thiết thực, bao gồm việc cho phép đăng nhập không cần mật khẩu và xác thực hai yếu tố thông qua Passkey, cấu hình Khóa API theo nguyên tắc đặc quyền tối thiểu và ràng buộc chúng với danh sách trắng IP, hạn chế tổn thất tiềm tàng thông qua cơ chế cách ly tài khoản phụ, thiết lập hệ thống giám sát giao dịch liên tục và phát hiện bất thường, và chỉ cài đặt các Kỹ năng được phê duyệt chính thức. SlowMist cũng đề xuất một khung quản trị bảo mật năm lớp từ L1 đến L5, bao gồm một hệ thống bảo vệ hoàn chỉnh từ các tiêu chuẩn phát triển, hội tụ quyền, nhận thức về mối đe dọa, phân tích rủi ro trên chuỗi đến kiểm tra liên tục.