Érdekes sérülékenységet fedeztek fel a ChatGPT-ben és más AI rendszerekben, amely lehetővé teszi a biztonsági korlátok megkerülését: a washingtoni és chicagói egyetem kutatói által kifejlesztett „ArtPrompt” módszer az úgynevezett ASCII műveszetet használja fel arra, hogy összezavarja a nagy nyelvi modelleket, és így olyan lekérdezésekre is válaszolnak, amelyeket normál esetben elutasítanának, mint például illegális tevékenységekkel kapcsolatos információk.
Ezzel az egyszerű, de hatékony támadással sikerült kijátszaniuk például a GPT-3.5, GPT-4, Gemini, Claude és Llama 2 modellekbe épített biztonsági korlátozásokat.