The Model DeepSeek R1 a suferit o actualizare minoră a versiunii, versiunea actuală fiind DeepSeek-R1-0528. Când accesați pagina web sau aplicația DeepSeek, activați funcția „Deep Thinking” din interfața de dialog pentru a experimenta cea mai recentă versiune.
Greutățile modelului DeepSeek-R1-0528 au fost încărcate pe HuggingFace.

În ultimele patru luni, DeepSeek-R1 a trecut printr-o super-evoluție, atingând capacități de codare extraordinare și timpi de gândire semnificativ mai lungi. Deși s-ar putea să nu fie... DeepSeek-R2 Așa cum se aștepta toată lumea, îmbunătățirile aduse modelului DeepSeek-R1-0528 sunt substanțiale.
Conform rapoartelor, noul model este antrenat pe DeepSeek-V3-0324 (cu parametri 660B).
Să aruncăm mai întâi o privire rapidă asupra principalelor actualizări din această versiune, prin intermediul unui tabel
Dimensiunea capacității | deepseek-R1 | Deepseek-R1-0528 |
Context maxim | 64k (API) | 128K (API) și mai mult |
Generarea de cod | Închidere liveCodeBench, deschidere O1 | Aproape de O3 |
Adâncimea raționamentului | Întrebările complexe necesită sugestii segmentate. | Suportă 30-60 de minute de gândire profundă |
Naturalitatea limbajului | destul de lung | Structură compactă, scriere similară cu O3 |
Costul de utilizare | Sursă deschisă sau API$0.5/M | Sursă deschisă sau API$0.5/M |
Capacități îmbunătățite de gândire profundă
DeepSeek-R1-0528 folosește în continuare modelul DeepSeek V3 Base lansat în decembrie 2024, dar în perioada de post-antrenament s-a investit mai multă putere de calcul, sporind semnificativ profunzimea gândirii și capacitățile de raționament ale modelului.
Modelul R1 actualizat a atins performanțe de top printre toate modelele interne în mai multe evaluări de referință, inclusiv matematică, programare și logică generală, iar performanța sa generală este acum la egalitate cu alte modele internaționale de top, cum ar fi o3 și Gemini-2.5-Pro.
- Capacități matematice și de programare: În competiția de matematică AIME 2025, precizia s-a îmbunătățit de la 70% în versiunea anterioară la 87,5%; capacitățile de generare de cod în testul de referință LiveCodeBench sunt aproape la egalitate cu modelul o3-high al OpenAI, obținerea unui scor de trecere la 1 fiind de 73,3%.
Testele utilizatorilor arată că noul DeepSeek-R1 este pur și simplu uimitor în programare!
Expertul în inteligență artificială „karminski-dentist” a testat DeepSeek-R1-0528 și Claude 4 Sonnet folosind aceeași solicitare și a constatat că:

Fie că este vorba de reflexia difuză a luminii pe un perete, de direcția mișcării unei mingi după impact sau de aspectul estetic al unui panou de control, R1 depășește în mod clar concurența.
Utilizatorul Haider a solicitat modelului să construiască un sistem de notare a cuvintelor. R1 a analizat pe scurt sarcina și a produs imediat două fișiere - unul pentru cod și altul pentru testarea funcționalității - care au rulat impecabil la prima încercare.

Anterior, o3 era singurul model capabil să îndeplinească această sarcină. Acum, R1 este, fără îndoială, cel mai bun model pentru această sarcină.
Rețineți că performanța lui R1 este remarcabilă deoarece cele două fișiere pe care le returnează rulează impecabil la prima încercare, fără nicio editare sau reîncercare, ceea ce este extrem de rar.
Anterior, majoritatea modelelor fie se terminau în cazuri limită, fie complicau excesiv soluția, fie nu aveau o acoperire adecvată a testelor.
- Profunzimea inferenței: Timpul de gândire pentru o singură sarcină a fost extins la 30-60 de minute, cu capacități de rezolvare a problemelor semnificativ îmbunătățite pentru probleme complexe (de exemplu, simulări fizice, puzzle-uri logice cu mai mulți pași).
Timpul mai lung de gândire a devenit cea mai discutată caracteristică online. Unii utilizatori au raportat că timpul de gândire al lui R1 a depășit 25 de minute în testele din lumea reală.

În plus, acesta pare a fi singurul model capabil să răspundă corect în mod constant la întrebarea „Cât este 9,9 minus 9,11?”.


DeepSeek-R1-0528 a obținut performanțe excelente pe toate seturile de date de evaluare
Comparativ cu versiunea anterioară a R1, noul model prezintă îmbunătățiri semnificative în sarcinile de raționament complex. De exemplu, în testul AIME 2025, rata de precizie a noului model a crescut de la 70% la 87,5%.
Această îmbunătățire se datorează profunzimii sporite a raționamentului din model: pe setul de teste AIME 2025, vechiul model a folosit o medie de 12.000 de jetoane per întrebare, în timp ce noul model a folosit o medie de 23.000 de jetoane per întrebare, indicând o gândire mai detaliată și mai aprofundată în procesul de rezolvare a problemelor.
În plus, echipa deepseek a distilat lanțul de raționament din DeepSeek-R1-0528 și a ajustat fin baza Qwen3-8B, rezultând DeepSeek-R1-0528-Qwen3-8B.
Acest model 8B s-a clasat pe locul doi, după DeepSeek-R1-0528, în testul de matematică AIME 2024, depășind Qwen3-8B (+10.0%) și egalând Qwen3-235B.
Lanțurile de raționament ale DeepSeek-R1-0528 vor avea implicații semnificative pentru cercetarea academică privind modelele de raționament și dezvoltarea industrială a modelelor la scară mică.
Unii internauți l-au lăudat pe DeepSeek-R1 pentru capacitatea sa de a corecta lanțuri de raționament precum o3 și de a construi lumi creative precum Claude.

Este important de menționat că DeepSeek este un model open-source, marcând o victorie majoră pentru modelele open-source.

Rezultatele comparative AIME 2024 pentru modele open-source precum DeepSeek-R1-0528-Qwen3-8B
Alte actualizări de capabilități
- Îmbunătățirea halucinațiilor: Noua versiune a DeepSeek R1 are performanțe optimizate pentru problemele de „halucinații”. Comparativ cu versiunea anterioară, modelul actualizat realizează o reducere de 45–50% a ratelor de halucinații în sarcini precum rescrierea și rafinarea, rezumarea și înțelegerea textului citit, oferind rezultate mai precise și mai fiabile.
- Scriere creativă: Bazat pe versiunea anterioară R1, modelul R1 actualizat a fost optimizat suplimentar pentru stilurile de scriere de eseuri, romane și proză, permițându-i să genereze lucrări mai lungi și mai complete din punct de vedere structural, prezentând în același timp un stil de scriere mai aliniat cu preferințele umane.
- Invocarea instrumentelor: DeepSeek-R1-0528 acceptă invocarea instrumentelor (invocarea instrumentelor nu este acceptată în gândire). Scorurile de evaluare Tau-Bench ale modelului actual sunt 53,5% pentru companii aeriene și 63,9% pentru comerțul cu amănuntul, comparabile cu OpenAI o1-high, dar încă în urma o3-High și Claude 4 Sonnet.
Exemplul prezintă un rezumat al unui articol web generat folosind capacitatea de invocare a instrumentului DeepSeek-R1-0528 prin intermediul LobeChat. În plus, DeepSeek-R1-0528 a fost actualizat și îmbunătățit în domenii precum generarea de cod front-end și jocul de rol.

Exemplul prezintă o aplicație modernă și minimalistă pentru fișe de cuvinte, dezvoltată folosind HTML/CSS/JavaScript prin invocarea DeepSeek-R1-0528 pe o pagină web.

Aspecte cheie ale actualizării DeepSeek-R1-0528
- Capacități de raționament profund comparabile cu modelele Google
- Optimizarea generării de text: mai natural și mai bine formatat
- Stil unic de raționament: nu doar mai rapid, ci și mai riguros
- Suport pentru gândirea pe termen lung: timpul de procesare a unei singure sarcini poate ajunge la 30-60 de minute

Capacitățile noii versiuni de DeepSeek-R1 au fost testate de noi. Deși este o actualizare „minoră”, performanța sa a fost îmbunătățită „epic”.
Mai ales în ceea ce privește capacitățile de programare, se pare că a depășit sau este la egalitate cu Claude 4 și Gemini 2.5 Pro. Toate solicitările sunt „one-shot”, nenecesitând modificări! Și poate fi rulat direct într-un browser web pentru a-și demonstra capacitățile.
Se poate simți clar că procesul de gândire al noii versiuni DeepSeek-R1 este mai stabil.
Poți adresa deepseek-R1 orice întrebare la care vrei să afli răspunsul, chiar dacă întrebarea ta este puțin absurdă, sistemul va analiza cu atenție și va organiza logica. Îți recomandăm cu căldură să încerci cel mai recent model deepseek-R1.
Informații despre actualizarea API-ului
API-ul a fost actualizat, dar interfața și metodele de apelare rămân neschimbate. Noul API R1 încă acceptă vizualizarea procesului de gândire al modelului și acum acceptă și apelarea funcțiilor și JsonOutput.
Echipa deepseek a ajustat semnificația parametrului max_tokens în noul API R1: max_tokens limitează acum lungimea totală a ieșirii unice a modelului (inclusiv procesul de gândire), cu o valoare implicită de 32K și o valoare maximă de 64K. Utilizatorii API sunt sfătuiți să ajusteze prompt parametrul max_tokens pentru a preveni trunchierea prematură a ieșirii.
Pentru instrucțiuni detaliate privind utilizarea modelului R1, vă rugăm să consultați Ghidul API-ului deepseek R1:
După această actualizare R1, lungimea contextului modelului de pe site-ul oficial, mini-program, aplicație și API va rămâne 64K. Dacă utilizatorii necesită o lungime mai mare a contextului, pot apela versiunea open-source a modelului R1-0528 cu o lungime a contextului de 128K prin intermediul altor platforme terțe.
Sursă deschisă
DeepSeek-R1-0528 folosește același model de bază ca și precedentul DeepSeek-R1, cu îmbunătățiri aduse doar metodelor de post-antrenament.
La implementarea privată, trebuie actualizate doar checkpoint-ul și tokenizer_config.json (modificările legate de apelurile instrumentelor). Parametrii modelului sunt 685B (dintre care 14B sunt pentru stratul MTP), iar versiunea open-source are o lungime a contextului de 128K (lungimea contextului de 64K este furnizată pentru web, aplicație și API).