Die DeepSeek R1-model het 'n klein weergawe-opgradering ondergaan, met die huidige weergawe DeepSeek-R1-0528. Wanneer jy die DeepSeek-webwerf of -toepassing besoek, aktiveer die "Diep denke"-funksie in die dialoogkoppelvlak om die nuutste weergawe te ervaar.
Die DeepSeek-R1-0528 modelgewigte is opgelaai na HuggingFace.

Oor die afgelope vier maande het DeepSeek-R1 super-evolusie ondergaan, wat koderingsvermoëns bereik het wat uitstaande is en aansienlik langer denktye. Alhoewel dit dalk nie die ... is nie DeepSeek-R2 almal verwag het, die verbeterings in die DeepSeek-R1-0528-model is aansienlik.
Volgens berigte word die nuwe model opgelei op DeepSeek-V3-0324 (met 660B-parameters).
Kom ons kyk eers vinnig na die belangrikste opdaterings in hierdie vrystelling via 'n tabel.
Vermoëdimensie | deepseek-R1 | Deepseek-R1-0528 |
Maksimum Konteks | 64k (API) | 128K (API) selfs meer |
Kodegenerering | liveCodeBench maak oop O1 | Naby O3 |
Redeneringsdiepte | Komplekse vrae vereis gesegmenteerde aanwysings. | Ondersteun 30-60 minute se diep denke |
Taalnatuurlikheid | nogal langdurig | Kompakte struktuur, skryf soortgelyk aan O3 |
Gebruikskoste | Oopbron of API$0.5/M | Oopbron of API$0.5/M |
Verbeterde diep denkvermoëns
DeepSeek-R1-0528 gebruik steeds die DeepSeek V3 Basismodel wat in Desember 2024 vrygestel is as fondament, maar tydens na-opleiding is meer rekenaarkrag belê, wat die model se denkdiepte en redenasievermoëns aansienlik verbeter het.
Die opgedateerde R1-model het topvlak-prestasie behaal onder alle plaaslike modelle in verskeie maatstaf-evaluerings, insluitend wiskunde, programmering en algemene logika, en die algehele prestasie is nou gelykstaande aan ander internasionale topvlak-modelle soos die o3 en Gemini-2.5-Pro.
- Wiskunde en programmeringsvermoëns: In die AIME 2025-wiskundekompetisie het akkuraatheid verbeter van 70% in die vorige weergawe tot 87.5%; kodegenereringsvermoëns in die LiveCodeBench-maatstaftoets is amper gelykstaande aan OpenAI se o3-hoë model, en die telling van slaag@1 is 73.3%.
Gebruikerstoetse toon dat die nuwe DeepSeek-R1 eenvoudig verstommend is in programmering!
Die KI-deskundige “karminski-tandarts” het DeepSeek-R1-0528 en Claude 4 Sonnet met dieselfde aanwysingstoets getoets en bevind dat:

Of dit nou die diffuse weerkaatsing van lig op 'n muur is, die rigting van 'n bal se beweging na die impak, of die estetiese aantrekkingskrag van 'n beheerpaneel, R1 oortref die kompetisie duidelik.
Gebruiker Haider het die model 'n woordtellingstelsel laat bou. R1 het die taak kortliks oorweeg en onmiddellik twee lêers geproduseer – een vir kode en 'n ander vir werktoetsing – wat foutloos met die eerste poging verloop het.

Voorheen was o3 die enigste model wat hierdie taak kon voltooi. Nou is R1 ongetwyfeld die beste model vir hierdie taak.
Let daarop dat R1 se prestasie so merkwaardig is omdat die twee lêers wat dit teruggee foutloos met die eerste probeerslag loop, sonder enige redigering of herprobeer, wat uiters skaars is.
Voorheen het die meeste modelle óf in randgevalle beëindig, die oplossing te ingewikkeld gemaak, óf nie voldoende toetsdekking gehad nie.
- Inferensiediepte: Denktyd vir enkeltaak verleng tot 30–60 minute, met aansienlik verbeterde probleemoplossingsvermoëns vir komplekse probleme (bv. fisikasimulasies, logiese raaisels met verskeie stappe).
Langer denktyd het die mees besproke kenmerk aanlyn geword. Sommige gebruikers het berig dat R1 se denktyd 25 minute in werklike toetse oorskry het.

Daarbenewens blyk dit die enigste model te wees wat in staat is om konsekwent korrek te beantwoord: "Wat is 9.9 minus 9.11?"


DeepSeek-R1-0528 het uitstekende prestasie behaal op alle evalueringsdatastelle
In vergelyking met die vorige weergawe van R1, toon die nuwe model beduidende verbeterings in komplekse redenasietake. Byvoorbeeld, in die AIME 2025-toets het die nuwe model se akkuraatheidskoers toegeneem van 70% tot 87.5%.
Hierdie verbetering is te danke aan die verbeterde redenasiediepte in die model: op die AIME 2025-toetsstel het die ou model gemiddeld 12 000 tokens per vraag gebruik, terwyl die nuwe model gemiddeld 23 000 tokens per vraag gebruik het, wat dui op meer gedetailleerde en diepgaande denke in die probleemoplossingsproses.
Daarbenewens het die deepseek-span die redenasieketting van DeepSeek-R1-0528 gedistilleer en die Qwen3-8B-basis verfyn, wat tot DeepSeek-R1-0528-Qwen3-8B gelei het.
Hierdie 8B-model was slegs tweede na DeepSeek-R1-0528 in die AIME 2024-wiskundetoets, en het Qwen3-8B (+10.0%) oortref en Qwen3-235B geëwenaar.
Die redenasiekettings van DeepSeek-R1-0528 sal beduidende implikasies inhou vir akademiese navorsing oor redenasiemodelle en die industriële ontwikkeling van kleinskaalse modelle.
Sommige internetgebruikers het DeepSeek-R1 geprys omdat dit redenasiekettings soos o3 kan korrigeer en wêrelde soos Claude kreatief kan konstrueer.

Dit is belangrik om daarop te let dat DeepSeek 'n oopbronmodel is, wat 'n groot oorwinning vir oopbronmodelle aandui.

AIME 2024 vergelykingsresultate vir oopbronmodelle soos DeepSeek-R1-0528-Qwen3-8B
Ander vermoë-opdaterings
- Verbetering van hallusinasies: Die nuwe weergawe van DeepSeek R1 het geoptimaliseerde werkverrigting vir "hallusinasie"-probleme. In vergelyking met die vorige weergawe behaal die opgedateerde model 'n vermindering van 45–50% in hallusinasietempo's oor take soos herskryf en poleer, opsomming en leesbegrip, wat meer akkurate en betroubare resultate lewer.
- Kreatiewe Skryfwerk: Gebaseer op die vorige R1-weergawe, is die opgedateerde R1-model verder geoptimaliseer vir opstel-, roman- en prosa-skryfstyle, wat dit in staat stel om langer, meer struktureel volledige werke te genereer terwyl dit 'n skryfstyl aanbied wat meer in lyn is met menslike voorkeure.
- Gereedskapaanroeping: DeepSeek-R1-0528 ondersteun gereedskapaanroeping (gereedskapaanroeping word nie in denke ondersteun nie). Die huidige model se Tau-Bench-evalueringstellings is 53.5% vir lugrederye en 63.9% vir kleinhandel, vergelykbaar met OpenAI o1-hoog, maar steeds agter o3-Hoog en Claude 4 Sonnet.
Die voorbeeld toon 'n webartikelopsomming wat gegenereer is met behulp van die gereedskapaanroepvermoë van DeepSeek-R1-0528 via LobeChat. Daarbenewens is DeepSeek-R1-0528 opgedateer en verbeter in gebiede soos front-end kodegenerering en rolspel.

Die voorbeeld toon 'n moderne en minimalistiese woordkaarttoepassing wat ontwikkel is met behulp van HTML/CSS/JavaScript deur DeepSeek-R1-0528 op 'n webblad aan te roep.

Belangrike hoogtepunte van die DeepSeek-R1-0528-opdatering
- Diep redenasievermoëns vergelykbaar met Google-modelle
- Teksgenereringsoptimalisering: meer natuurlik en beter geformateer
- Unieke redenasiestyl: nie net vinniger nie, maar ook meer streng
- Ondersteuning vir langtermyn denke: die verwerking van 'n enkele taak kan 30-60 minute duur

Die vermoëns van die nuwe weergawe van DeepSeek-R1 is deur ons getoets. Alhoewel dit 'n "klein weergawe"-opdatering is, is die werkverrigting daarvan 'epies' verbeter.
Veral wat programmeringsvermoëns betref, voel dit asof dit Claude 4 en Gemini 2.5 Pro oortref het of gelykstaande is aan hulle. Alle aanwysings is "eenmalig" en vereis geen wysigings nie! En dit kan direk in 'n webblaaier uitgevoer word om sy vermoëns te demonstreer.
Jy kan duidelik voel dat die denkproses van die nuwe DeepSeek-R1-weergawe meer stabiel is.
Jy kan deepseek-R1 enige vraag vra waarop jy die antwoord wil weet, selfs al is jou vraag 'n bietjie onsinnig, sal dit steeds deeglik dink en die logika organiseer. Ons beveel sterk aan dat jy die nuutste deepseek-R1-model probeer.
API-opdateringsinligting
Die API is opgedateer, maar die koppelvlak en oproepmetodes bly onveranderd. Die nuwe R1 API ondersteun steeds die besigtiging van die model se denkproses en ondersteun nou ook Funksie-oproepe en JsonOutput.
Die deepseek-span het die betekenis van die max_tokens-parameter in die nuwe R1 API aangepas: max_tokens beperk nou die totale lengte van die model se enkele uitvoer (insluitend die denkproses), met 'n standaardwaarde van 32K en 'n maksimum van 64K. API-gebruikers word aangeraai om die max_tokens-parameter vinnig aan te pas om te verhoed dat uitvoer voortydig afgekap word.
Vir gedetailleerde instruksies oor die gebruik van die R1-model, verwys asseblief na die deepseek R1 API-gids:
Na hierdie R1-opdatering sal die modelkontekslengte op die amptelike webwerf, miniprogram, toepassing en API 64K bly. Indien gebruikers 'n langer kontekslengte benodig, kan hulle die oopbronweergawe van die R1-0528-model met 'n kontekslengte van 128K deur ander derdeparty-platforms aanroep.
Oopbron
DeepSeek-R1-0528 gebruik dieselfde basismodel as die vorige DeepSeek-R1, met slegs verbeterings aan die na-opleidingsmetodes.
Wanneer privaat ontplooi word, hoef slegs die kontrolepunt en tokenizer_config.json (veranderinge wat verband hou met hulpmiddeloproepe) opgedateer te word. Die modelparameters is 685B (waarvan 14B vir die MTP-laag is), en die oopbronweergawe het 'n kontekslengte van 128K (64K kontekslengte word vir web, toepassing en API verskaf).