Theo Decrypt, một công cụ mới có tên Nightshade có thể giúp các nghệ sĩ bảo vệ tác phẩm của họ khỏi bị thu hoạch mà không được phép bởi các mô hình AI tổng hợp. Những mô hình này, đã thu hút được sự chú ý lớn trong năm nay, dựa trên các thư viện nghệ thuật khổng lồ hiện có và có thể tạo ra hình ảnh trực quan với khả năng đáng kinh ngạc. Nightshade sử dụng các cuộc tấn công đầu độc dữ liệu được tối ưu hóa, cụ thể theo thời gian để làm hỏng dữ liệu cần thiết để huấn luyện các mô hình AI khi dữ liệu được đưa vào trình tạo hình ảnh. Giáo sư Ben Zhao giải thích rằng đầu độc đã là một phương thức tấn công được biết đến trong các mô hình học máy trong nhiều năm, nhưng Nightshade là duy nhất bởi vì nó đầu độc các mô hình AI tổng quát, điều mà trước đây được cho là không thể thực hiện được do kích thước lớn của chúng. Công cụ này nhắm mục tiêu đến các lời nhắc riêng lẻ, chẳng hạn như yêu cầu tạo hình ảnh rồng, chó hoặc ngựa, thay vì tấn công toàn bộ mô hình. Cách tiếp cận này làm suy yếu mô hình và vô hiệu hóa nó trong việc tạo ra tác phẩm nghệ thuật. Để tránh bị phát hiện, văn bản và hình ảnh trong dữ liệu bị nhiễm độc phải xuất hiện tự nhiên và được tạo ra để đánh lừa cả máy phát hiện căn chỉnh tự động và người kiểm tra con người. Mặc dù Nightshade hiện chỉ là một bằng chứng về khái niệm, Zhao tin rằng nếu có đủ nghệ sĩ thực hiện những viên thuốc độc này, mô hình AI có thể sụp đổ và trở nên vô giá trị. Nightshade không yêu cầu bất kỳ hành động nào chống lại chính trình tạo hình ảnh AI nhưng sẽ có hiệu lực khi mô hình AI cố gắng để sử dụng dữ liệu mà Nightshade đã đưa vào. Zhao mô tả nó giống như một cuộc tấn công ít hơn và giống như một sự tự vệ hoặc một hàng rào thép gai với các đầu độc nhằm vào các nhà phát triển AI không tôn trọng các yêu cầu từ chối và không- chỉ thị cạo.