Ahogy a ChatGPT-t is rá lehet venni, hogy máshogy válaszoljon, mint ahogy a fejlesztők szeretnék, úgy a nagy nyelvi modellekkel működő robotok is átverhetők. A Pennsylvaniai Egyetem kutatói sikeresen hackeltek meg ilyen robotokat, többek között rávettek egy szimulált önvezető autót, hogy figyelmen kívül hagyja a stoptáblákat és lehajtson egy hídról, egy négylábú robotot pedig kémkedésre és tiltott területre való behatolásra programoztak át.

A veszély valós, mert az LLM-eket egyre szélesebb körben alkalmazzák a fizikai világban működő rendszerekben, például önvezető autókban, légi irányításban és orvosi műszerekben. A multimodális AI modellek megjelenésével pedig a támadási felület tovább nő, hiszen a rendszerek már képek, beszéd és más bemenet alapján is manipulálhatók.