A kínai DeepSeek csapata kiadta a DeepSeek-Coder-V2 modellt, aminek a kódgenerálási képessége megközelíti vagy meg is haladja a GPT-4, Claude, és Gemini modellekét.

Az új modell Mixture-of-Experts architektúrát használ, és két változatban érhető el (egy kisebb, gyorsabb, és egy nagyobb). Válogatott, magas minőségű adathalmazon lett betanítva, 338 programozási nyelvet támogat, és 128 ezer token hosszúságú kontextust is képes feldolgozni.

A modell letölthető a Hugging Face oldaláról nyílt forráskódú licenc alatt, és mind kutatási, mind kereskedelmi célokra korlátozás nélkül használható.