A népszerű kínai AI modell, a DeepSeek-R1, alapvetően versenyképes minőségű kódot generál a fejlesztőknek, egészen addig, amíg a promptban nem jelennek meg Kínában politikailag érzékeny témák, mint például Tibet, az ujgurok, vagy a Falun Gong. A CrowdStrike kutatása szerint ilyenkor akár 50%-kal is megnő a súlyos sebezhetőségeket tartalmazó kódrészletek aránya.

Bár ezek a „trigger” szavak nem befolyásolják a kódfeladat lényegét, a DeepSeek mégis sokkal több biztonsági hibát vétett, amikor a kutatók ilyeneket használtak a promptban.

A CrowdStrike szerint itt nem arról van szó, hogy a kínai fejlesztők szándékosan sebezhető kódot akarnak íratni a modellel, hanem inkább csak a kínai állami szabályozás által előírt tartalomszűrés – a „szocialista alapértékek betartatása” – miatt jelent meg ez a rejtett torzítás.

Ez a jelenség azért fontos, mert nem feltétlenül csak a kínai AI modellekre lehet igaz: minden olyan nagy nyelvi modell, amit erősen ideológiai vagy politikai szempontok mentén finomhangolnak, hordozhat hasonló, rejtett hibákat.