A Mistral kiadta kisméretű és ingyenes nyelvi modelljének legújabb változatát, ami a benchmark mérések alapján jelenleg a legjobb a kategóriájában, még a múlt héten bemutatott Google Gemma 3-at is felülmúlja. A modell gyors (150 token/mp), multimodális, és 128 ezer tokenes kontextusablakot kezel.
Akár egy darab RTX 4090-en vagy egy 32 GB RAM-mal rendelkező Mac-en is futtatható, így kiváló választás lokális AI alkalmazásokhoz. Az Apache 2.0 licenc alatt bárki szabadon letöltheti és finomhangolhatja a modellt.