A Perplexity kiadta az R1 1776 nevű nyílt forráskódú nyelvi modellt, amely a kínai DeepSeek-R1 finomhangolt változata. A cél az volt, hogy eltávolítsák az eredeti modellben meglévő politikai korlátozásokat anélkül, hogy a teljesítmény romlana. A fejlesztők mintegy 300, Kínában cenzúrázott témát azonosítottak, majd 40.000 kapcsolódó promptra készítettek tényszerű, átgondolt válaszokat, amelyekkel betanították a modellt.

A tesztek szerint az új verzió egyáltalán nem cenzúrázza a politikailag érzékeny kérdéseket, szemben az eredeti DeepSeek-R1-gyel, ami a kényes témák 85 százalékánál visszautasította a válaszadást. Közben a modell teljesítménye a nyelvi és matematikai teszteken gyakorlatilag változatlan maradt.