Menurut Cointelegraph, para peneliti di University of Chicago telah menciptakan sebuah alat yang disebut Nightshade yang memungkinkan para seniman untuk 'meracuni' karya seni digital mereka untuk mencegah para pengembang menggunakannya untuk melatih sistem kecerdasan buatan (artificial intelligence/AI). Alat ini mengubah gambar dengan cara mencemari kumpulan data yang digunakan untuk pelatihan AI dengan informasi yang salah, sehingga menyebabkan sistem AI salah menafsirkan gambar. Sebagai contoh, alat ini dapat membuat AI percaya bahwa gambar kucing sebenarnya adalah seekor anjing, dan sebaliknya, akibatnya, kemampuan AI untuk menghasilkan output yang akurat dan masuk akal akan terganggu. Jika pengguna meminta gambar 'kucing' dari AI yang tercemar, mereka mungkin akan menerima seekor anjing yang dilabeli sebagai kucing atau kombinasi dari semua 'kucing' dalam kumpulan pelatihan AI, termasuk yang sebenarnya adalah gambar anjing yang dimodifikasi oleh Nightshade. Vitaly Shmatikov, seorang profesor di Cornell University, menyatakan bahwa para peneliti 'belum mengetahui pertahanan yang kuat terhadap serangan ini,' menyiratkan bahwa model yang kuat seperti ChatGPT dari OpenAI pun dapat menjadi rentan. tim peneliti di balik Nightshade, yang dipimpin oleh Ben Zhao, seorang profesor di Universitas Chicago, telah memperluas perangkat lunak perlindungan artis yang sudah ada yang disebut Glaze. Dalam karya mereka sebelumnya, mereka mengembangkan metode bagi seniman untuk mengaburkan atau 'melapisi' gaya karya seni mereka. Nightshade pada akhirnya akan diintegrasikan ke dalam Glaze, yang saat ini tersedia secara gratis di web atau untuk diunduh.