The DeepSeek R1 model je prošao kroz manju nadogradnju verzije, a trenutna verzija je DeepSeek-R1-0528. Kada uđete na web stranicu ili aplikaciju DeepSeek, omogućite značajku „Duboko razmišljanje“ u dijaloškom sučelju kako biste iskusili najnoviju verziju.

Težine modela DeepSeek-R1-0528 prenesene su na HuggingFace

Tijekom protekla četiri mjeseca, DeepSeek-R1 je prošao kroz superevoluciju, postižući mogućnosti kodiranja koje su izvan svih očekivanja i znatno dulje vrijeme razmišljanja. Iako možda nije... DeepSeek-R2 svi su očekivali, poboljšanja u modelu DeepSeek-R1-0528 su značajna.

Prema izvješćima, novi model je obučen na DeepSeek-V3-0324 (s parametrima od 660B).

Prvo ćemo ukratko pogledati ključna ažuriranja u ovom izdanju putem tablice

Dimenzija sposobnostideepseek-R1Deepseek-R1-0528
Maksimalni kontekst64k (API)128K (API) još više
Generiranje kodaliveCodeBench zatvori otvoreni O1Blizu O3
Dubina obrazloženjaSložena pitanja zahtijevaju segmentirane upute.Podržava 30-60 minuta dubokog razmišljanja
Prirodnost jezikaprilično dugotrajanKompaktna struktura, pisanje slično O3
Trošak korištenjaOtvoreni kod ili API$0.5/MOtvoreni kod ili API$0.5/M

Poboljšane sposobnosti dubokog razmišljanja

DeepSeek-R1-0528 i dalje koristi osnovni model DeepSeek V3 objavljen u prosincu 2024. kao osnovu, ali tijekom naknadne obuke uloženo je više računalne snage, što je značajno poboljšalo dubinu razmišljanja i mogućnosti rasuđivanja modela.

Ažurirani model R1 postigao je vrhunske performanse među svim domaćim modelima u višestrukim testovima, uključujući matematiku, programiranje i opću logiku, a njegove ukupne performanse sada su u rangu s drugim međunarodnim vrhunskim modelima kao što su o3 i Gemini-2.5-Pro.

  • Matematika i programske sposobnosti: Na natjecanju iz matematike AIME 2025, točnost se poboljšala sa 70% u prethodnoj verziji na 87,5%; mogućnosti generiranja koda u LiveCodeBench benchmark testu gotovo su na razini OpenAI-jevog o3-high modela, a postignuti rezultat pass@1 iznosi 73,3%.

Korisnički testovi pokazuju da je novi DeepSeek-R1 jednostavno zapanjujući u programiranju!

Stručnjak za umjetnu inteligenciju „karminski-dentist“ testirao je DeepSeek-R1-0528 i Claude 4 Sonnet koristeći isti upit i otkrio da:

Bilo da se radi o difuznom odrazu svjetlosti na zidu, smjeru kretanja lopte nakon udara ili estetskoj privlačnosti upravljačke ploče, R1 jasno nadmašuje konkurenciju.

Korisnik Haider je dao modelu izradu sustava bodovanja riječi. R1 je kratko razmotrio zadatak i odmah izradio dvije datoteke - jednu za kod i drugu za testiranje rada - koje su besprijekorno radile iz prvog pokušaja.

Prije je o3 bio jedini model sposoban za izvršavanje ovog zadatka. Sada je R1 nesumnjivo najbolji model za ovaj zadatak.

Imajte na umu da su performanse R1 toliko izvanredne jer dvije datoteke koje vraća rade besprijekorno iz prvog pokušaja, bez ikakvog uređivanja ili ponovnih pokušaja, što je izuzetno rijetko.

Prije se većina modela ili završavala u rubnim slučajevima, prekomplicirala rješenje ili im je nedostajala odgovarajuća pokrivenost testovima.

  • Dubina zaključivanja: Vrijeme razmišljanja o jednom zadatku produženo je na 30–60 minuta, sa značajno poboljšanim sposobnostima rješavanja problema za složene probleme (npr. simulacije fizike, logičke zagonetke u više koraka).

Dulje vrijeme razmišljanja postalo je najraspravljanija značajka na internetu. Neki korisnici izvijestili su da je vrijeme razmišljanja R1 premašilo 25 minuta u stvarnim testovima.

Osim toga, čini se da je ovo jedini model koji je sposoban dosljedno točno odgovoriti na pitanje „Koliko je 9,9 minus 9,11?“

DeepSeek-R1-0528 postigao je izvrsne performanse na svim skupovima podataka za evaluaciju

U usporedbi s prethodnom verzijom R1, novi model pokazuje značajna poboljšanja u zadacima složenog zaključivanja. Na primjer, u testu AIME 2025, stopa točnosti novog modela povećala se sa 70% na 87,5%.

Ovo poboljšanje posljedica je povećane dubine obrazloženja u modelu: na testnom skupu AIME 2025, stari model je koristio prosječno 12 tisuća tokena po pitanju, dok je novi model koristio prosječno 23 tisuće tokena po pitanju, što ukazuje na detaljnije i dublje razmišljanje u procesu rješavanja problema.

Osim toga, tim deepseek je destilirao lanac zaključivanja iz DeepSeek-R1-0528 i fino podesio Qwen3-8B bazu, što je rezultiralo DeepSeek-R1-0528-Qwen3-8B.

Ovaj model 8B zauzeo je drugo mjesto odmah iza DeepSeek-R1-0528 na testu iz matematike AIME 2024, nadmašivši Qwen3-8B (+10.0%) i izjednačivši se s Qwen3-235B.

Lanci zaključivanja iz DeepSeek-R1-0528 imat će značajne implikacije za akademska istraživanja modela zaključivanja i industrijski razvoj modela malog opsega.

Neki korisnici interneta pohvalili su DeepSeek-R1 zbog sposobnosti ispravljanja lanaca zaključivanja poput o3 i kreativnog konstruiranja svjetova poput Claudea.

Važno je napomenuti da je DeepSeek model otvorenog koda, što označava veliku pobjedu za modele otvorenog koda.

Rezultati usporedbe AIME 2024 za modele otvorenog koda kao što je DeepSeek-R1-0528-Qwen3-8B

Ostala ažuriranja mogućnosti

  • Poboljšanje halucinacija: Nova verzija DeepSeek R1 optimizirala je performanse za probleme s „halucinacijama“. U usporedbi s prethodnom verzijom, ažurirani model postiže smanjenje stope halucinacija od 45–50% u zadacima kao što su prepisivanje i poliranje, sažimanje i razumijevanje pročitanog, pružajući točnije i pouzdanije rezultate.
  • Kreativno pisanje: Na temelju prethodne verzije R1, ažurirani model R1 dodatno je optimiziran za stilove pisanja eseja, romana i proze, omogućujući mu generiranje duljih, strukturno cjelovitih djela uz istovremeno predstavljanje stila pisanja koji je više usklađen s ljudskim preferencijama.
  • Pozivanje alata: DeepSeek-R1-0528 podržava pozivanje alata (pozivanje alata nije podržano u načinu razmišljanja). Trenutni rezultati Tau-Bench evaluacije modela su 53,5% za zrakoplovne tvrtke i 63,9% za maloprodaju, usporedivo s OpenAI o1-high, ali i dalje zaostaje za o3-High i Claude 4 Sonnet.

Primjer prikazuje sažetak web članka generiran korištenjem mogućnosti pozivanja alata DeepSeek-R1-0528 putem LobeChata. Osim toga, DeepSeek-R1-0528 je ažuriran i poboljšan u područjima kao što su generiranje front-end koda i igranje uloga.

Primjer prikazuje modernu i minimalističku aplikaciju za kartice s riječima razvijenu korištenjem HTML/CSS/JavaScript pozivanjem DeepSeek-R1-0528 na web stranici.

Ključne značajke ažuriranja DeepSeek-R1-0528

  • Mogućnosti dubokog zaključivanja usporedive s Googleovim modelima
  • Optimizacija generiranja teksta: prirodniji i bolje formatiran
  • Jedinstven stil zaključivanja: ne samo brži, već i rigorozniji
  • Podrška dugoročnom razmišljanju: vrijeme obrade jednog zadatka može doseći 30–60 minuta

Testirali smo mogućnosti nove verzije DeepSeek-R1. Iako se radi o ažuriranju „manje verzije“, njegove performanse su „epski“ poboljšane.

Pogotovo što se tiče programskih mogućnosti, čini se kao da je nadmašio ili je ravan Claudeu 4 i Geminiju 2.5 Pro. Svi su upiti "jednokratni", ne zahtijevaju nikakve izmjene! I može se pokrenuti izravno u web pregledniku kako bi se demonstrirale njegove mogućnosti.

Jasno se osjeća da je proces razmišljanja nove verzije DeepSeek-R1 stabilniji.

Možete postaviti deepseek-R1-u bilo koje pitanje na koje želite znati odgovor, čak i ako je vaše pitanje pomalo besmisleno, on će i dalje pažljivo razmisliti i organizirati logiku. Toplo preporučujemo da isprobate najnoviji model deepseek-R1.

Informacije o ažuriranju API-ja

API je ažuriran, ali sučelje i metode pozivanja ostaju nepromijenjeni. Novi R1 API i dalje podržava pregled misaonog procesa modela, a sada podržava i pozivanje funkcija i JsonOutput.

Tim deepseek prilagodio je značenje parametra max_tokens u novom R1 API-ju: max_tokens sada ograničava ukupnu duljinu pojedinačnog izlaza modela (uključujući proces razmišljanja), s zadanom vrijednošću od 32K i maksimalnom od 64K. Korisnicima API-ja savjetuje se da odmah prilagode parametar max_tokens kako bi spriječili prerano skraćivanje izlaza.

Za detaljne upute o korištenju modela R1, pogledajte deepseek R1 API vodič:

Nakon ovog ažuriranja R1, duljina konteksta modela na službenoj web stranici, mini programu, aplikaciji i API-ju ostat će 64K. Ako korisnicima treba veća duljina konteksta, mogu pozvati verziju modela R1-0528 otvorenog koda s duljinom konteksta od 128K putem drugih platformi trećih strana.

Otvoreni kod

DeepSeek-R1-0528 koristi isti osnovni model kao i prethodni DeepSeek-R1, s poboljšanjima samo metoda nakon obuke.

Prilikom privatnog implementacije potrebno je ažurirati samo kontrolnu točku i tokenizer_config.json (promjene povezane s pozivima alata). Parametri modela su 685B (od čega je 14B za MTP sloj), a verzija otvorenog koda ima duljinu konteksta od 128K (duljina konteksta od 64K je predviđena za web, aplikaciju i API).

Slični postovi

Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)