Az Anthropic Claude Sonnet 4 modellje mostantól akár 1 millió tokennyi szöveget is képes egyszerre feldolgozni az API-n keresztül – ez nagyjából 75 ezer sornyi kód vagy több tucatnyi kutatási anyag. Az ötszörösére növelt kontextusablak a szoftverfejlesztésben, dokumentum-elemzésben és hosszú ügynöki folyamatoknál lehet igazán hasznos.
A Google Gemini, illetve a Meta Llama modelljei is kínálnak hasonlóan nagy kontextust, de a kutatások szerint ezeknél az extrém méreteknél az AI teljesítménye jelentősen romlik. Az Anthropic szerint a Sonnet 4-nél ezen is sikerült javítaniuk, de ennek technikai részleteit nem árulták el.
200 ezer token felett kétszeresre nő az ár, de prompt cachinggel és batch feldolgozással csökkenthetők a költségek.
