Az Nvidia bemutatta a Nemotron 3 Super modellt, egy 120 milliárd paraméteres hibrid architektúrát, amely három különböző megközelítést kombinál: a Mamba-2 állapot-tér modelleket, a Transformer figyelem-rétegeket és egy új Latent Mixture-of-Experts (MoE) kialakítást.
A modell 1 millió tokenes kontextusablakot kezel, és a Blackwell GPU-kon 4-szer gyorsabb inferenciát biztosít a korábbi architektúrákhoz képest. A DeepResearch Bench benchmarkon jelenleg az első helyen áll, az ügynöki munkafolyamatokhoz szükséges többlépéses kutatási képességeket mérő teszten.
A súlyok elérhetők a Hugging Face-en az Nvidia Open Model License alatt, amely kereskedelmi felhasználást engedélyez, de biztonsági korlátok betartásához köti a használatot.

Az első tesztek alapján magyar nyelven nagyon gyenge a teljesítménye.