A Nightshade nevű eszközzel az alkotók emberi szemmel láthatatlan jelet rakhatnak a képeikbe, ami összezavarja az AI modellek képzési folyamatát, és ha elég ilyen kép kerül be a rendszerbe, az tönkreteheti az egész modellt.
Természetesen, ez a jelenleg elérhető képgeneráló eszközöket nem érinti, csak a jövőbeli modellekre lehet hatással.
Ez inkább csak afféle reklámfogás a Nightshade fejlesztői részéről – ha az eszköz komolyan fenyegetné egy jövőbeli modell képességeit, akkor hamar találnának rá módot, hogy semlegesítsék, vagy kigyomlálják az ilyen képeket a képzési adatokból.