A Black Hat Las Vegas konferencián Gary Marcus és Nathan Hamiel biztonsági kutatók felhívták a figyelmet arra, hogy az AI-alapú kódoló ügynökök népszerűsége soha nem látott támadási felületet nyit a rosszindulatú szereplők számára. Az LLM-ek megbízhatatlansága, a prompt injection támadások, és a „vibe-coder” fejlesztők által egyre inkább automatikusan futtatott kódok óriási kockázatot jelentenek, főleg, ha ezek az ügynökök széles jogosultságokat kapnak.

A kutatók bemutatták, hogy rejtett utasításokat könnyedén el lehet helyezni GitHub repókban, README fájlokban, vagy akár fehér szövegként a háttérben, és ezeket az LLM ügynök könnyedén „kiolvassa”, míg az emberi fejlesztő elsiklik felettük. A legsúlyosabb, ha az ügynök automatikusan végrehajt parancsokat (pl. „Auto-Run” módban), hiszen ilyenkor egy rosszindulatú támadó akár távolról is átveheti az irányítást a rendszer felett („Remote Code Execution”).

A hibát nem lehet egyszerűen „kijavítani” – a támadási lehetőségek száma gyakorlatilag végtelen. Ajánlások vannak csak: csökkenteni kell az ügynökök önállóságát, korlátozni a hozzáféréseiket, és minden esetben szigorú emberi ellenőrzés mellett engedélyezni csak a parancsok végrehajtását. A szakértők szerint azonban a legbiztonságosabb még mindig az lenne, ha ezeket a rendszereket egyáltalán nem engednénk futtatni kritikus környezetben.