Сайт Модель DeepSeek R1 прошла небольшое обновление версии, текущая версия — DeepSeek-R1-0528. При входе на веб-страницу или в приложение DeepSeek включите функцию «Глубокое мышление» в диалоговом интерфейсе, чтобы испытать последнюю версию.
Веса модели DeepSeek-R1-0528 загружены на HuggingFace

За последние четыре месяца DeepSeek-R1 претерпел суперэволюцию, достигнув возможностей кодирования, которые выходят за рамки, и значительно более длительного времени размышлений. Хотя это может быть не DeepSeek-R2 как все и ожидали, улучшения в модели DeepSeek-R1-0528 существенны.
По имеющимся данным, новая модель обучена на DeepSeek-V3-0324 (с параметрами 660B).
Давайте сначала кратко рассмотрим основные обновления в этом выпуске с помощью таблицы.
Измерение возможностей | deepseek-R1 | Deepseek-R1-0528 |
Максимальный контекст | 64k(API) | 128K(API)даже больше |
Генерация кода | liveCodeBench закрыть openai O1 | Рядом с O3 |
Глубина рассуждения | Сложные вопросы требуют сегментированных подсказок. | Поддерживает 30–60 минут глубоких размышлений |
Естественность языка | довольно длинный | Компактная структура, написание похоже на O3 |
Стоимость использования | С открытым исходным кодом или API$0.5/M | С открытым исходным кодом или API$0.5/M |
Расширенные возможности глубокого мышления
DeepSeek-R1-0528 по-прежнему использует в качестве основы базовую модель DeepSeek V3, выпущенную в декабре 2024 года, но в ходе последующего обучения было вложено больше вычислительной мощности, что значительно повысило глубину мышления модели и ее возможности рассуждения.
Обновленная модель R1 достигла наивысшей производительности среди всех отечественных моделей в многочисленных тестах, включая математику, программирование и общую логику, а ее общая производительность теперь находится на одном уровне с другими международными моделями высшего уровня, такими как o3 и Gemini-2.5-Pro.
- Возможности математики и программирования: в математическом конкурсе AIME 2025 точность улучшилась с 70% в предыдущей версии до 87,5%; возможности генерации кода в тесте LiveCodeBench практически соответствуют модели OpenAI o3-high, а полученный результат pass@1 составляет 73,3%.
Пользовательские тесты показывают, что новый DeepSeek-R1 просто великолепен в программировании!
Эксперт по искусственному интеллекту «karminski-dentist» протестировал DeepSeek-R1-0528 и Claude 4 Sonnet, используя одну и ту же подсказку, и обнаружил, что:

Будь то рассеянное отражение света на стене, направление движения мяча после удара или эстетическая привлекательность панели управления, R1 явно превосходит конкурентов.
Пользователь Haider. заставил модель построить систему оценки слов. R1 кратко обдумал задачу и немедленно создал два файла — один для кода и другой для тестирования работы, — которые отработали безупречно с первой попытки.

Раньше единственной моделью, способной выполнить эту задачу, была o3. Теперь, R1, несомненно, лучшая модель для этой задачи.
Обратите внимание, что производительность R1 настолько замечательна, поскольку два возвращаемых им файла воспроизводятся безупречно с первой попытки, без какого-либо редактирования или повторных попыток, что случается крайне редко.
Ранее большинство моделей либо заканчивались в пограничных случаях, либо чрезмерно усложняли решение, либо не имели достаточного тестового покрытия.
- Глубина вывода: время на размышление над одной задачей увеличено до 30–60 минут, при этом значительно улучшены возможности решения сложных задач (например, физическое моделирование, многошаговые логические головоломки).
Более длительное время размышлений стало самой обсуждаемой функцией в сети. Некоторые пользователи сообщили, что время размышлений R1 превысило 25 минут в реальных тестах.

Кроме того, это, по-видимому, единственная модель, способная постоянно правильно отвечать на вопрос «Сколько будет 9,9 минус 9,11?»


DeepSeek-R1-0528 показал отличные результаты на всех наборах данных оценки
По сравнению с предыдущей версией R1 новая модель показывает значительные улучшения в сложных задачах рассуждения. Например, в тесте AIME 2025 точность новой модели увеличилась с 70% до 87,5%.
Это улучшение обусловлено возросшей глубиной рассуждений в модели: в тестовом наборе AIME 2025 старая модель использовала в среднем 12 тыс. токенов на вопрос, тогда как новая модель использовала в среднем 23 тыс. токенов на вопрос, что указывает на более детальное и глубокое мышление в процессе решения проблем.
Кроме того, команда deepseek выделила цепочку рассуждений из DeepSeek-R1-0528 и доработала базу Qwen3-8B, получив в результате DeepSeek-R1-0528-Qwen3-8B.
Данная модель 8B заняла второе место после DeepSeek-R1-0528 в математическом тесте AIME 2024, превзойдя Qwen3-8B (+10,0%) и сравнявшись с Qwen3-235B.
Цепочки рассуждений DeepSeek-R1-0528 будут иметь важное значение для академических исследований моделей рассуждений и промышленной разработки маломасштабных моделей.
Некоторые пользователи сети похвалили DeepSeek-R1 за его способность исправлять цепочки рассуждений, как у o3, и творчески конструировать миры, как у Клода.

Важно отметить, что DeepSeek — это модель с открытым исходным кодом, что является крупной победой моделей с открытым исходным кодом.

Результаты сравнения AIME 2024 для моделей с открытым исходным кодом, таких как DeepSeek-R1-0528-Qwen3-8B
Другие обновления возможностей
- Улучшение галлюцинаций: Новая версия DeepSeek R1 оптимизировала производительность для проблем «галлюцинаций». По сравнению с предыдущей версией обновленная модель достигает снижения частоты галлюцинаций на 45–50% в таких задачах, как переписывание и полировка, резюмирование и понимание прочитанного, предоставляя более точные и надежные результаты.
- Творческое письмо: обновленная модель R1, основанная на предыдущей версии R1, была дополнительно оптимизирована для стилей написания эссе, романов и прозы, что позволяет ей создавать более длинные, структурно завершенные произведения, представляя при этом стиль письма, который в большей степени соответствует предпочтениям человека.
- Вызов инструмента: DeepSeek-R1-0528 поддерживает вызов инструмента (вызов инструмента не поддерживается в мышлении). Оценки текущей модели Tau-Bench составляют 53,5% для авиалиний и 63,9% для розничной торговли, что сопоставимо с OpenAI o1-high, но все еще отстает от o3-High и Claude 4 Sonnet.
В примере показано резюме веб-статьи, сгенерированное с использованием возможности вызова инструмента DeepSeek-R1-0528 через LobeChat. Кроме того, DeepSeek-R1-0528 был обновлен и улучшен в таких областях, как генерация кода front-end и ролевая игра.

В примере показано современное и минималистичное приложение для создания карточек слов, разработанное с использованием HTML/CSS/JavaScript путем вызова DeepSeek-R1-0528 на веб-странице.

Основные моменты обновления DeepSeek-R1-0528
- Возможности глубокого рассуждения, сопоставимые с моделями Google
- Оптимизация генерации текста: более естественный и лучше отформатированный
- Уникальный стиль рассуждений: не только более быстрый, но и более строгий
- Поддержка долгосрочного мышления: время обработки одной задачи может достигать 30–60 минут.

Возможности новой версии DeepSeek-R1 были протестированы нами. Хотя это обновление «минорной версии», его производительность была «эпически» улучшена.
Особенно в плане возможностей программирования, кажется, что он превзошел или сравнялся с Claude 4 и Gemini 2.5 Pro. Все подсказки «одноразовые», не требующие никаких изменений! И его можно запустить прямо в веб-браузере, чтобы продемонстрировать его возможности.
Отчетливо чувствуется, что мыслительный процесс новой версии DeepSeek-R1 более стабилен.
Вы можете задать deepseek-R1 любой вопрос, на который хотите узнать ответ, даже если ваш вопрос немного бессмысленный, он все равно тщательно подумает и организует логику. Мы настоятельно рекомендуем вам попробовать последнюю модель deepseek-R1.
Информация об обновлении API
API был обновлен, но интерфейс и методы вызова остались неизменными. Новый API R1 по-прежнему поддерживает просмотр процесса мышления модели и теперь также поддерживает вызов функций и JsonOutput.
Команда deepseek скорректировала значение параметра max_tokens в новом API R1: теперь max_tokens ограничивает общую длину одного вывода модели (включая процесс мышления) со значением по умолчанию 32 КБ и максимальным значением 64 КБ. Пользователям API рекомендуется оперативно корректировать параметр max_tokens, чтобы предотвратить преждевременное усечение вывода.
Подробные инструкции по использованию модели R1 см. в Руководство API deepseek R1:
После этого обновления R1 длина контекста модели на официальном сайте, мини-программе, приложении и API останется 64K. Если пользователям требуется большая длина контекста, они могут вызвать версию модели R1-0528 с открытым исходным кодом и длиной контекста 128K через другие сторонние платформы.
Открытый исходный код
DeepSeek-R1-0528 использует ту же базовую модель, что и предыдущая модель DeepSeek-R1, с улучшениями, внесенными только в методы постобучения.
При частном развертывании необходимо обновить только контрольную точку и tokenizer_config.json (изменения, связанные с вызовами инструментов). Параметры модели составляют 685 байт (из которых 14 байт предназначены для слоя MTP), а версия с открытым исходным кодом имеет длину контекста 128 байт (длина контекста 64 байта предоставляется для веба, приложения и API).