На Модел DeepSeek R1 претрпе мало надградување на верзијата, а моменталната верзија е DeepSeek-R1-0528. Кога ќе влезете на веб-страницата или апликацијата DeepSeek, овозможете ја функцијата „Длабоко размислување“ во интерфејсот за дијалог за да ја доживеете најновата верзија.
Тежините на моделот DeepSeek-R1-0528 се прикачени на HuggingFace.

Во текот на изминатите четири месеци, DeepSeek-R1 претрпе супереволуција, постигнувајќи невидени можности за кодирање и значително подолго време на размислување. Иако можеби не е DeepSeek-R2 Како што сите очекуваа, подобрувањата кај моделот DeepSeek-R1-0528 се значителни.
Според извештаите, новиот модел е трениран на DeepSeek-V3-0324 (со параметри 660B).
Ајде прво накратко да ги разгледаме клучните ажурирања во ова издание преку табела
Димензија на способност | deepseek-R1 | Deepseek-R1-0528 |
Максимален контекст | 64k (API) | 128K (API) уште повеќе |
Генерирање на код | liveCodeBench затвори го отворањето на O1 | Во близина на О3 |
Длабочина на расудување | Комплексните прашања бараат сегментирани инструкции. | Поддржува 30-60 минути длабоко размислување |
Природност на јазикот | прилично долг | Компактна структура, пишување слично на O3 |
Трошок за користење | Отворен код или API$0.5/M | Отворен код или API$0.5/M |
Зголемени можности за длабоко размислување
DeepSeek-R1-0528 сè уште го користи основниот модел DeepSeek V3, објавен во декември 2024 година, како основа, но за време на пост-обуката беше инвестирана поголема компјутерска моќ, со што значително се подобри длабочината на размислување и можностите за расудување на моделот.
Ажурираниот модел R1 постигна врвни перформанси меѓу сите домашни модели во повеќекратни бенчмарк евалуации, вклучувајќи математика, програмирање и општа логика, а неговите вкупни перформанси сега се на исто ниво со други меѓународни врвни модели како што се o3 и Gemini-2.5-Pro.
- Математички и програмски можности: На натпреварот по математика AIME 2025, точноста се подобри од 70% во претходната верзија на 87,5%; можностите за генерирање код во бенчмарк тестот LiveCodeBench се речиси на исто ниво со моделот o3-high на OpenAI, постигнувајќи резултат од pass@1 од 73,3%.
Корисничките тестови покажуваат дека новиот DeepSeek-R1 е едноставно неверојатен во програмирањето!
Експертот за вештачка интелигенција „кармински-стоматолог“ ги тестираше DeepSeek-R1-0528 и Claude 4 Sonnet користејќи го истиот прашалник и откри дека:

Без разлика дали станува збор за дифузната рефлексија на светлината на ѕидот, насоката на движење на топката по ударот или естетската привлечност на контролната табла, R1 очигледно ја надминува конкуренцијата.
Корисникот Хајдер го замоли моделот да изгради систем за оценување на зборови. R1 накратко ја разгледа задачата и веднаш создаде две датотеки - една за код и друга за тестирање на работата - кои работеа беспрекорно од првиот обид.

Претходно, o3 беше единствениот модел способен да ја заврши оваа задача. Сега, R1 е несомнено најдобриот модел за оваа задача.
Забележете дека перформансите на R1 се толку извонредни бидејќи двете датотеки што ги враќа работат беспрекорно од првиот обид, без никакво уредување или повторни обиди, што е исклучително ретко.
Претходно, повеќето модели или завршуваа во рабни случаи, го прекомплицираа решението или немаа соодветна покриеност со тестови.
- Длабочина на инференција: Времето за размислување за една задача е продолжено на 30–60 минути, со значително подобрени можности за решавање проблеми за сложени прашања (на пр., физички симулации, логички загатки во повеќе чекори).
Подолгото време за размислување стана најдискутираната карактеристика на интернет. Некои корисници пријавија дека времето за размислување на R1 надминува 25 минути во тестовите во реалниот свет.

Дополнително, ова се чини дека е единствениот модел способен доследно правилно да одговори на прашањето „Колку е 9,9 минус 9,11?“


DeepSeek-R1-0528 постигна одлични перформанси на сите збирки податоци за евалуација
Во споредба со претходната верзија на R1, новиот модел покажува значителни подобрувања во сложените задачи за расудување. На пример, во тестот AIME 2025, стапката на точност на новиот модел се зголеми од 70% на 87,5%.
Ова подобрување се должи на зголемената длабочина на размислување во моделот: на тест-сетот AIME 2025, стариот модел користеше просечно 12.000 токени по прашање, додека новиот модел користеше просечно 23.000 токени по прашање, што укажува на подетално и подлабоко размислување во процесот на решавање проблеми.
Дополнително, тимот на deepseek го дестилираше синџирот на расудување од DeepSeek-R1-0528 и ја фино подесената база Qwen3-8B, што резултираше со DeepSeek-R1-0528-Qwen3-8B.
Овој модел 8B се рангираше на второто место само по DeepSeek-R1-0528 на математичкиот тест AIME 2024, надминувајќи го Qwen3-8B (+10,0%) и изедначувајќи се со Qwen3-235B.
Синџирите на расудување од DeepSeek-R1-0528 ќе имаат значајни импликации за академските истражувања на моделите на расудување и индустрискиот развој на модели од мал обем.
Некои нетизени го пофалија DeepSeek-R1 за тоа што може да корегира ланци на расудување како o3 и креативно да конструира светови како Клод.

Важно е да се напомене дека DeepSeek е модел со отворен код, што претставува голема победа за моделите со отворен код.

Резултати од споредбата на AIME 2024 за модели со отворен код како што е DeepSeek-R1-0528-Qwen3-8B
Други ажурирања на можностите
- Подобрување на халуцинации: Новата верзија на DeepSeek R1 има оптимизирани перформанси за проблеми со „халуцинации“. Во споредба со претходната верзија, ажурираниот модел постигнува намалување од 45–50% на стапките на халуцинации во задачи како што се препишување и полирање, сумирање и разбирање на прочитаното, давајќи поточни и посигурни резултати.
- Креативно пишување: Врз основа на претходната верзија R1, ажурираниот модел R1 е дополнително оптимизиран за стилови на пишување есеи, романи и прози, овозможувајќи му да генерира подолги, структурно поцелосни дела, а воедно да презентира стил на пишување кој е повеќе усогласен со човечките преференции.
- Повикување на алатка: DeepSeek-R1-0528 поддржува повикување на алатка (повикувањето на алатка не е поддржано во размислувањето). Резултатите од евалуацијата на Tau-Bench на тековниот модел се 53,5% за авиокомпанија и 63,9% за малопродажба, споредливо со OpenAI o1-high, но сепак заостанува зад o3-High и Claude 4 Sonnet.
Примерот прикажува резиме на веб-статија генерирана со користење на можноста за повикување на алатката DeepSeek-R1-0528 преку LobeChat. Покрај тоа, DeepSeek-R1-0528 е ажурирана и подобрена во области како што се генерирање на front-end код и играње улоги.

Примерот покажува модерна и минималистичка апликација за картички со зборови развиена со HTML/CSS/JavaScript со повикување на DeepSeek-R1-0528 на веб-страница.

Клучни моменти од ажурирањето DeepSeek-R1-0528
- Способности за длабоко расудување споредливи со моделите на Google
- Оптимизација за генерирање текст: поприродна и подобро форматирана
- Уникатен стил на размислување: не само побрз, туку и поригорозен
- Поддршка за долгорочно размислување: времето за обработка на една задача може да достигне 30-60 минути

Можностите на новата верзија на DeepSeek-R1 се тестирани од наша страна. Иако станува збор за „помала верзија“, нејзините перформанси се „епски“ подобрени.
Особено во однос на програмските можности, се чини дека ги надминал или е на исто ниво со Claude 4 и Gemini 2.5 Pro. Сите инструкции се „еднократни“, не бараат никакви модификации! И може да се изврши директно во веб-прелистувач за да се демонстрираат неговите можности.
Јасно можете да почувствувате дека процесот на размислување на новата верзија DeepSeek-R1 е постабилен.
Можете да му поставите на deepseek-R1 какво било прашање на кое сакате да го знаете одговорот, дури и ако вашето прашање е малку бесмислено, сепак ќе размисли внимателно и ќе ја организира логиката. Ви препорачуваме да го пробате најновиот модел на deepseek-R1.
Информации за ажурирање на API
API-то е ажурирано, но интерфејсот и методите за повикување остануваат непроменети. Новиот R1 API сè уште поддржува прегледување на процесот на размислување на моделот, а сега поддржува и повикување на функции и JsonOutput.
Тимот на deepseek го прилагоди значењето на параметарот max_tokens во новиот R1 API: max_tokens сега ја ограничува вкупната должина на единечниот излез на моделот (вклучувајќи го и процесот на размислување), со стандардна вредност од 32K и максимум 64K. На корисниците на API им се препорачува веднаш да го прилагодат параметарот max_tokens за да спречат предвремено скратување на излезот.
За детални упатства за користење на моделот R1, ве молиме погледнете го Водич за deepseek R1 API:
По ова ажурирање на R1, должината на контекстот на моделот на официјалната веб-страница, мини-програмата, апликацијата и API-то ќе остане 64K. Доколку корисниците бараат подолга должина на контекстот, можат да ја повикаат верзијата со отворен код на моделот R1-0528 со должина на контекстот од 128K преку други платформи од трети страни.
Отворен код
DeepSeek-R1-0528 го користи истиот основен модел како и претходниот DeepSeek-R1, со подобрувања направени само на методите по тренингот.
При приватно распоредување, треба да се ажурираат само контролната точка и tokenizer_config.json (промени поврзани со повиците на алатките). Параметрите на моделот се 685B (од кои 14B се за MTP слојот), а верзијата со отворен код има должина на контекст од 128K (64K должина на контекст е обезбедена за веб, апликација и API).