Một cấp độ rủi ro mới trong gian lận tiền điện tử: Công cụ Deepfake ProKYC
Cato Networks đã báo cáo một bước tiến đáng lo ngại trong các kỹ thuật gian lận tiền điện tử với sự xuất hiện của một công cụ deepfake mới do AI điều khiển được gọi là ProKYC.
Công cụ này cho phép những kẻ xấu vượt qua các biện pháp xác minh danh tính khách hàng (KYC) nghiêm ngặt được các sàn giao dịch tiền điện tử áp dụng, cho thấy sự tiến hóa đáng kể so với các phương pháp gian lận truyền thống.
Nguồn: Cato Networks
Etay Maor, chiến lược gia an ninh hàng đầu tại Cato Networks, tuyên bố rằng sáng kiến này đánh dấu sự cải tiến đáng kể so với các phương pháp trước đây, khi tội phạm mạng thường dùng đến cách mua giấy tờ tùy thân giả mạo từ dark web.
ProKYC hoạt động như thế nào?
Nền tảng ProKYC cho phép kẻ gian tạo ra danh tính hoàn toàn giả mạo mà không cần bất kỳ thông tin xác thực nào hiện có.
Tạo hộ chiếu giả theo lựa chọn ưu tiên bằng cách tạo danh tính giả. (Nguồn: Cato Networks)
Khả năng này đặc biệt nhắm vào các tổ chức tài chính có giao thức KYC yêu cầu phải đối chiếu hình ảnh webcam của người dùng với giấy tờ tùy thân chính thức do chính phủ cấp, chẳng hạn như hộ chiếu hoặc giấy phép lái xe.
Video trình diễn từ ProKYC minh họa cách người dùng có thể dễ dàng tạo ra khuôn mặt giống thật do AI tạo ra, tích hợp vào mẫu hộ chiếu Úc và sau đó tạo ra video deepfake vượt qua thành công các bài kiểm tra nhận dạng khuôn mặt trên các sàn giao dịch tiền điện tử lớn như Bybit.
Tạo địa chỉ (Nguồn: Cato Networks)
Trong bản demo này, trước tiên người dùng sẽ tạo ra một khuôn mặt giống thật được tạo ra bằng AI và nhúng vào mẫu hộ chiếu.
Nguồn: Cato Networks
Sau đó, công cụ ProKYC tạo ra một video deepfake có sự góp mặt của cá nhân giả mạo, cho phép người dùng bỏ qua các bước kiểm tra KYC được thiết kế để ngăn chặn các hoạt động gian lận như vậy.
Phần mềm này thậm chí còn đi xa hơn khi hỏi nền tảng nào mà video AI KYC được tạo ra, với Binance, Bybit, Coinlist, Okex (hiện được gọi là OKX), Gate.io và Huobi được liệt kê là các tùy chọn. (Nguồn: Cato Networks)
Video AI do phần mềm tạo ra có vẻ vô cùng chân thực, gần như làm mờ ranh giới giữa thực tế và hư cấu.
Maor cảnh báo,
“Việc tạo ra các hệ thống xác thực sinh trắc học có tính hạn chế cao có thể dẫn đến nhiều cảnh báo dương tính giả. Mặt khác, việc kiểm soát lỏng lẻo có thể dẫn đến gian lận.”
Phần mềm kết nối với camera, cho phép sử dụng video deepfake do AI tạo ra trong quá trình xác minh KYC, điều này rất đáng báo động vì công nghệ như vậy không bao giờ được phép vượt qua hệ thống KYC mà không bị phát hiện. (Nguồn: Cato Networks)
Sự gia tăng của gian lận tài khoản mới (NAF)
Cato Networks nhấn mạnh rằng các công cụ như ProKYC giúp tăng cường đáng kể khả năng của tội phạm mạng, cho phép chúng tạo các tài khoản gian lận trên các sàn giao dịch tiền điện tử - một hoạt động được gọi là Gian lận tài khoản mới (NAF).
Loại gian lận này không chỉ tạo điều kiện cho việc tạo ra các tài khoản tổng hợp mà còn là phương tiện rửa tiền và thiết lập các tài khoản giả.
Tác động tài chính của những chương trình như vậy là rất lớn; theo AARP, NAF gây ra khoản lỗ hơn 5,3 tỷ đô la vào năm 2023, tăng đáng kể so với mức 3,9 tỷ đô la của năm trước.
Trang web ProKYC cung cấp gói đăng ký có giá 629 đô la, bao gồm camera, trình giả lập ảo, công cụ hoạt hình khuôn mặt và khả năng tạo ảnh xác minh.
Ngoài các sàn giao dịch tiền điện tử, công cụ này còn tuyên bố tương thích với nhiều nền tảng thanh toán khác nhau, chẳng hạn như Stripe và Revolut, làm tăng khả năng bị sử dụng sai mục đích.
Giải quyết thách thức phát hiện
Việc phát hiện và ngăn chặn các chiến thuật gian lận tiên tiến do AI điều khiển này đặt ra những thách thức đáng kể.
Như Maor đã chỉ ra, các hệ thống quá nghiêm ngặt có thể gây ra kết quả dương tính giả, làm phức tạp thêm sự cân bằng giữa bảo mật và khả năng sử dụng.
Ông nhắc lại rằng: “Việc tạo ra các hệ thống xác thực sinh trắc học có tính hạn chế cao có thể dẫn đến nhiều cảnh báo dương tính giả”.
Tuy nhiên, vẫn còn những phương pháp tiềm năng để xác định các mối đe dọa do AI tạo ra này.
Một số chiến lược phát hiện dựa vào các nhà phân tích con người để phát hiện hình ảnh và video chất lượng cao, cùng với bất kỳ sự khác biệt nào trong chuyển động khuôn mặt hoặc tính nhất quán của hình ảnh.
Việc xác định nội dung deepfake rất quan trọng vì hành vi làm giả tinh vi có thể dễ dàng đánh lừa các hệ thống tự động.
Các dấu hiệu như hình ảnh có độ phân giải cao bất thường, trục trặc trong chuyển động khuôn mặt hoặc sự không nhất quán trong sự đồng bộ của mắt và môi có thể báo hiệu khả năng gian lận.
Sự can thiệp của con người vẫn rất quan trọng để xác nhận tính xác thực của những thông tin như vậy.
Tương lai của AI và An ninh mạng
Sự phát triển nhanh chóng của công nghệ AI đã tạo ra bối cảnh nơi những kẻ tấn công liên tục cải tiến phương pháp của chúng.
Cato CTRL nhấn mạnh tầm quan trọng của việc các tổ chức phải luôn cập nhật thông tin về các mối đe dọa mới nổi và điều chỉnh các biện pháp bảo mật cho phù hợp.
Các khuyến nghị bao gồm thu thập thông tin tình báo từ nhiều nguồn khác nhau, bao gồm thông tin tình báo của con người (HUMINT) và thông tin tình báo nguồn mở (OSINT), để luôn cảnh giác trước các xu hướng tội phạm mạng mới nhất.
Khi bối cảnh các mối đe dọa mạng tiếp tục phát triển, sự tinh vi của các công cụ như ProKYC làm nổi bật nhu cầu cấp thiết về các biện pháp bảo mật tăng cường trong các tổ chức tài chính.
Cuộc đấu tranh chống lại các hình thức gian lận tinh vi như vậy vẫn đang diễn ra và cần có những nỗ lực chủ động để giảm thiểu những rủi ro này một cách hiệu quả.