Theo Cointelegraph, các nhà nghiên cứu tại Đại học Chicago đã tạo ra một công cụ có tên Nightshade cho phép các nghệ sĩ “đầu độc” tác phẩm kỹ thuật số của họ nhằm ngăn cản các nhà phát triển sử dụng nó để đào tạo hệ thống trí tuệ nhân tạo (AI). Công cụ này thay đổi hình ảnh theo cách làm ô nhiễm các tập dữ liệu được sử dụng để đào tạo AI với thông tin không chính xác, khiến hệ thống AI hiểu sai hình ảnh. Ví dụ: nó có thể khiến AI tin rằng hình ảnh một con mèo thực sự là một con chó và ngược lại. Kết quả là khả năng tạo ra kết quả đầu ra chính xác và hợp lý của AI sẽ bị ảnh hưởng. Nếu người dùng yêu cầu hình ảnh của một 'con mèo' từ AI bị nhiễm độc, họ có thể nhận được một con chó được gắn nhãn là mèo hoặc sự kết hợp của tất cả các 'mèo' trong tập huấn luyện của AI, bao gồm cả những hình ảnh thực sự là hình ảnh của những con chó được sửa đổi bởi Cây bạch anh. Vitaly Shmatikov, giáo sư tại Đại học Cornell, tuyên bố rằng các nhà nghiên cứu “chưa biết về biện pháp phòng vệ mạnh mẽ chống lại những cuộc tấn công này”, ngụ ý rằng ngay cả những mô hình mạnh như ChatGPT của OpenAI cũng có thể dễ bị tấn công. Nhóm nghiên cứu đằng sau Nightshade, do Ben Zhao, dẫn đầu giáo sư tại Đại học Chicago, đã mở rộng phần mềm bảo vệ nghệ sĩ hiện có của họ có tên Glaze. Trong công việc trước đây, họ đã phát triển một phương pháp để các nghệ sĩ làm xáo trộn hoặc 'làm sáng' phong cách tác phẩm nghệ thuật của họ. Nightshade cuối cùng sẽ được tích hợp vào Glaze, hiện có sẵn miễn phí trên web hoặc để tải xuống.