A Carnegie Mellon és a Tel Aviv Egyetem kutatói arra a megállapításra jutottak, hogy az LLM-ek teljesítménye jelentősen javul, ha több száz vagy akár ezer példát adunk meg nekik közvetlenül a bemenetben (promptban) kontextusként.

Ezt a módszert „In-Context Learning”-nek (ICL) nevezik, és alternatívája lehet az időigényes „fine-tuning” technikának, különösen ahogy a jövőbeli modellek egyre jobban tudják kezelni a rendkívül hosszú bemeneti szövegeket. A tanulmány megerősíti a Google DeepMind korábbi eredményeit a sok példát tartalmazó promptokkal kapcsolatban.