Сайтът Модел DeepSeek R1 е претърпял малка актуализация на версията, като текущата версия е DeepSeek-R1-0528. Когато влезете в уеб страницата или приложението DeepSeek, активирайте функцията „Задълбочено мислене“ в диалоговия интерфейс, за да изпитате най-новата версия.
Теглата на модела DeepSeek-R1-0528 са качени в HuggingFace.

През последните четири месеца DeepSeek-R1 претърпя супереволюция, постигайки възможности за кодиране, които са извън класациите, и значително по-дълго време за мислене. Макар че може да не е... DeepSeek-R2 както всички очакваха, подобренията в модела DeepSeek-R1-0528 са значителни.
Според докладите, новият модел е обучен на DeepSeek-V3-0324 (с 660B параметри).
Нека първо да разгледаме накратко ключовите актуализации в тази версия чрез таблица
Измерение на способностите | deepseek-R1 | Deepseek-R1-0528 |
Максимален контекст | 64k (API) | 128K (API) още повече |
Генериране на код | liveCodeBench затвори openai O1 | Близо до O3 |
Дълбочина на разсъжденията | Сложните въпроси изискват сегментирани подкани. | Поддържа 30-60 минути задълбочено мислене |
Естественост на езика | доста дълъг | Компактна структура, писане подобно на O3 |
Разходи за ползване | Отворен код или API$0.5/M | Отворен код или API$0.5/M |
Подобрени способности за дълбоко мислене
DeepSeek-R1-0528 все още използва базовия модел DeepSeek V3, пуснат през декември 2024 г., като своя основа, но по време на последващото обучение е инвестирана повече изчислителна мощност, което значително подобрява дълбочината на мислене и възможностите за разсъждение на модела.
Обновеният модел R1 постигна най-високи резултати сред всички местни модели в множество бенчмарк оценки, включително математика, програмиране и обща логика, а цялостната му производителност вече е наравно с други международни модели от висок клас, като o3 и Gemini-2.5-Pro.
- Математика и програмни възможности: В математическото състезание AIME 2025 точността се подобри от 70% в предишната версия до 87.5%; възможностите за генериране на код в бенчмарк теста LiveCodeBench са почти наравно с модела o3-high на OpenAI, като постигнатият резултат pass@1 е 73.3%.
Потребителските тестове показват, че новият DeepSeek-R1 е просто изумителен в програмирането!
Експертът по изкуствен интелект „karminski-dentist“ тества DeepSeek-R1-0528 и Claude 4 Sonnet, използвайки същия подкаст, и установи, че:

Независимо дали става въпрос за дифузното отражение на светлината върху стена, посоката на движение на топката след удара или естетическата привлекателност на контролния панел, R1 очевидно превъзхожда конкуренцията.
Потребителят Haider накара модела да изгради система за оценяване на думи. R1 обмисли накратко задачата и веднага създаде два файла – един за код и друг за тестване на работата – които работеха безупречно от първия опит.

Преди това, o3 беше единственият модел, способен да изпълни тази задача. Сега, R1 несъмнено е най-добрият модел за тази задача.
Обърнете внимание, че производителността на R1 е толкова забележителна, защото двата файла, които връща, работят безупречно от първия опит, без никакво редактиране или повторни опити, което е изключително рядко.
Преди това повечето модели или завършваха в гранични случаи, прекалено усложняваха решението, или нямаха адекватно тестово покритие.
- Дълбочина на изводите: Времето за мислене за една задача е удължено до 30–60 минути, със значително подобрени възможности за решаване на сложни проблеми (напр. физически симулации, многоетапни логически пъзели).
По-дългото време за мислене се превърна в най-обсъжданата функция онлайн. Някои потребители съобщиха, че времето за мислене на R1 е надхвърлило 25 минути в реални тестове.

Освен това, това изглежда е единственият модел, способен постоянно да отговаря правилно на въпроса „Колко е 9,9 минус 9,11?“.


DeepSeek-R1-0528 постигна отлични резултати върху всички набори от данни за оценка
В сравнение с предишната версия на R1, новият модел показва значителни подобрения в задачите за сложно разсъждение. Например, в теста AIME 2025, коефициентът на точност на новия модел се е увеличил от 70% на 87.5%.
Това подобрение се дължи на подобрената дълбочина на разсъжденията в модела: в тестовия набор AIME 2025 старият модел използваше средно 12 000 токена на въпрос, докато новият модел използваше средно 23 000 токена на въпрос, което показва по-детайлно и задълбочено мислене в процеса на решаване на проблеми.
Освен това, екипът на deepseek дестилира веригата на разсъждения от DeepSeek-R1-0528 и фино настрои Qwen3-8B Base, което доведе до DeepSeek-R1-0528-Qwen3-8B.
Този модел 8B се класира на второ място след DeepSeek-R1-0528 в теста по математика на AIME 2024, като превъзхожда Qwen3-8B (+10.0%) и е равен на Qwen3-235B.
Веригите на разсъждения на DeepSeek-R1-0528 ще имат значителни последици за академичните изследвания върху моделите на разсъждение и индустриалното разработване на малки модели.
Някои потребители на интернет похвалиха DeepSeek-R1 за способността му да коригира вериги от разсъждения като o3 и да изгражда креативно светове като Claude.

Важно е да се отбележи, че DeepSeek е модел с отворен код, което бележи голяма победа за моделите с отворен код.

Резултати от сравнението на AIME 2024 за модели с отворен код, като например DeepSeek-R1-0528-Qwen3-8B
Други актуализации на възможностите
- Подобрение при халюцинации: Новата версия на DeepSeek R1 е оптимизирала производителността при проблеми с „халюцинации“. В сравнение с предишната версия, актуализираният модел постига намаление от 45–50% в честотата на халюцинациите при задачи като пренаписване и полиране, обобщаване и разбиране при четене, предоставяйки по-точни и надеждни резултати.
- Творческо писане: Базиран на предишната версия R1, актуализираният модел R1 е допълнително оптимизиран за стилове писане на есета, романи и проза, което му позволява да генерира по-дълги, по-структурно завършени произведения, като същевременно представя стил на писане, който е по-съобразен с човешките предпочитания.
- Извикване на инструменти: DeepSeek-R1-0528 поддържа извикване на инструменти (извикването на инструменти не се поддържа в Thinking). Резултатите от Tau-Bench оценката на текущия модел са 53.5% за авиокомпании и 63.9% за търговия на дребно, сравними с OpenAI o1-high, но все още изоставащи от o3-High и Claude 4 Sonnet.
Примерът показва резюме на уеб статия, генерирано с помощта на възможността за извикване на инструмента DeepSeek-R1-0528 чрез LobeChat. Освен това, DeepSeek-R1-0528 е актуализиран и подобрен в области като генериране на код от предния край и ролеви игри.

Примерът показва модерно и минималистично приложение за карти с думи, разработено с помощта на HTML/CSS/JavaScript чрез извикване на DeepSeek-R1-0528 на уеб страница.

Основни акценти на актуализацията DeepSeek-R1-0528
- Възможности за дълбоко разсъждение, сравними с моделите на Google
- Оптимизация на генерирането на текст: по-естествено и по-добре форматирано
- Уникален стил на разсъждение: не само по-бърз, но и по-строг
- Подкрепа за дългосрочно мислене: времето за обработка на една задача може да достигне 30–60 минути

Възможностите на новата версия на DeepSeek-R1 бяха тествани от нас. Въпреки че е „минорна“ актуализация, нейната производителност е „епично“ подобрена.
Особено по отношение на възможностите за програмиране, изглежда сякаш е надминал или е наравно с Claude 4 и Gemini 2.5 Pro. Всички команди са „еднократни“, без да се изискват модификации! И може да се стартира директно в уеб браузър, за да се демонстрират възможностите му.
Ясно се усеща, че мисловният процес на новата версия DeepSeek-R1 е по-стабилен.
Можете да зададете на deepseek-R1 всеки въпрос, на който искате да знаете отговора, дори ако въпросът ви е малко безсмислен, той все пак ще го обмисли внимателно и ще организира логиката. Силно ви препоръчваме да изпробвате най-новия модел deepseek-R1.
Информация за актуализация на API
API е актуализиран, но интерфейсът и методите за извикване остават непроменени. Новият R1 API все още поддържа преглед на мисловния процес на модела и вече поддържа и извикване на функции и JsonOutput.
Екипът на deepseek е коригирал значението на параметъра max_tokens в новия R1 API: max_tokens вече ограничава общата дължина на единичния изход на модела (включително мисловния процес), със стойност по подразбиране от 32K и максимум 64K. Потребителите на API се съветват да коригират параметъра max_tokens своевременно, за да предотвратят преждевременното отрязване на изхода.
За подробни инструкции относно използването на модела R1, моля, вижте Ръководство за API deepseek R1:
След тази актуализация на R1, дължината на контекста на модела на официалния уебсайт, мини програмата, приложението и API ще остане 64K. Ако потребителите се нуждаят от по-голяма дължина на контекста, те могат да извикат версията с отворен код на модела R1-0528 с дължина на контекста от 128K чрез други платформи на трети страни.
Отворен код
DeepSeek-R1-0528 използва същия базов модел като предишния DeepSeek-R1, като са направени само подобрения в методите за последващо обучение.
При частно внедряване е необходимо да се актуализират само контролната точка и tokenizer_config.json (промени, свързани с извикванията на инструменти). Параметрите на модела са 685B (от които 14B са за MTP слоя), а версията с отворен код има дължина на контекста от 128K (64K дължина на контекста е предоставена за уеб, приложение и API).