द DeepSeek R1 मोडेल हालको संस्करण DeepSeek-R1-0528 सहितको सानो संस्करण अपग्रेड गरिएको छ। जब तपाईं DeepSeek वेबपेज वा एपमा प्रवेश गर्नुहुन्छ, नवीनतम संस्करण अनुभव गर्न संवाद इन्टरफेसमा "गहिरो सोच" सुविधा सक्षम गर्नुहोस्।
१TP8T-R1-0528 मोडेलका तौलहरू HuggingFace मा अपलोड गरिएका छन्।

विगत चार महिनामा, DeepSeek-R1 ले सुपर-इभोलुसनबाट गुज्रिएको छ, चार्टभन्दा बाहिरका कोडिङ क्षमताहरू र उल्लेखनीय रूपमा लामो सोच्ने समय प्राप्त गरेको छ। यद्यपि यो नहुन सक्छ DeepSeek-R2 को लागि सोधपुछ पेश गर्नुहोस्, हामी तपाईंलाई 24 घण्टामा सम्पर्क गर्नेछौं। सबैले अपेक्षा गरेका थिए, DeepSeek-R1-0528 मोडेलमा उल्लेखनीय सुधारहरू हुनेछन्।
रिपोर्टहरूका अनुसार, नयाँ मोडेल DeepSeek-V3-0324 (660B प्यारामिटरहरू सहित) मा प्रशिक्षित छ।
पहिले यस रिलीजमा भएका मुख्य अपडेटहरूलाई तालिका मार्फत द्रुत रूपमा हेरौं।
क्षमता आयाम | १TP3T को परिचय | डिपसिक-R1-0528 |
अधिकतम सन्दर्भ | ६४k(एपीआई) | १२८K(API) अझ बढी |
कोड जेनेरेसन | liveCodeBench बन्द गर्नुहोस् openai O1 | O3 नजिक |
तर्कको गहिराइ | जटिल प्रश्नहरूको लागि खण्डित प्रम्प्टहरू आवश्यक पर्दछ। | ३०-६० मिनेटको गहिरो सोचलाई समर्थन गर्दछ |
भाषाको स्वाभाविकता | अलि लामो | कम्प्याक्ट संरचना, O3 जस्तै लेखन |
प्रयोग लागत | खुला स्रोत वा API$0.5/M | खुला स्रोत वा API$0.5/M |
गहिरो सोच्ने क्षमता बढेको छ
DeepSeek-R1-0528 ले अझै पनि डिसेम्बर २०२४ मा जारी गरिएको DeepSeek V3 बेस मोडेललाई यसको जगको रूपमा प्रयोग गर्दछ, तर प्रशिक्षण पछि, थप कम्प्युटिङ शक्ति लगानी गरिएको थियो, जसले मोडेलको सोचाइको गहिराइ र तर्क क्षमताहरूलाई उल्लेखनीय रूपमा बढायो।
अद्यावधिक गरिएको R1 मोडेलले गणित, प्रोग्रामिङ, र सामान्य तर्क सहित धेरै बेन्चमार्क मूल्याङ्कनमा सबै घरेलु मोडेलहरू मध्ये उच्च-स्तरीय प्रदर्शन हासिल गरेको छ, र यसको समग्र प्रदर्शन अब o3 र Gemini-2.5-Pro जस्ता अन्य अन्तर्राष्ट्रिय शीर्ष-स्तरीय मोडेलहरूसँग बराबर छ।
- गणित र प्रोग्रामिङ क्षमताहरू: AIME २०२५ गणित प्रतियोगितामा, शुद्धता अघिल्लो संस्करणमा ७०१TP११T बाट ८७.५१TP११T मा सुधार भयो; LiveCodeBench बेन्चमार्क परीक्षणमा कोड उत्पादन क्षमताहरू OpenAI को o3-उच्च मोडेलको लगभग बराबर छन्, pass@1 को स्कोर प्राप्त गर्दै ७३.३१TP११T छ।
प्रयोगकर्ता परीक्षणहरूले देखाउँछन् कि नयाँ DeepSeek-R1 प्रोग्रामिङमा अचम्मलाग्दो छ!
एआई विशेषज्ञ "कर्मिन्स्की-दन्त चिकित्सक" ले उही प्रम्प्ट प्रयोग गरेर DeepSeek-R1-0528 र क्लाउड 4 सोनेटको परीक्षण गरे र पत्ता लगाए कि:

चाहे त्यो भित्तामा प्रकाशको फैलिएको परावर्तन होस्, प्रहार पछि बलको चालको दिशा होस्, वा नियन्त्रण प्यानलको सौन्दर्य आकर्षण होस्, R1 ले प्रतिस्पर्धालाई स्पष्ट रूपमा उछिनेको छ।
प्रयोगकर्ता हैदरले मोडेललाई शब्द-स्कोरिङ प्रणाली निर्माण गर्न लगाए। R1 ले कार्यलाई संक्षिप्त रूपमा विचार गर्यो र तुरुन्तै दुई फाइलहरू उत्पादन गर्यो - एउटा कोडको लागि र अर्को कार्य परीक्षणको लागि - जुन पहिलो प्रयासमा निर्दोष रूपमा चल्यो।

पहिले, o3 यो कार्य पूरा गर्न सक्षम एक मात्र मोडेल थियो। अब, R1 निस्सन्देह यो कार्यको लागि उत्तम मोडेल हो।
ध्यान दिनुहोस् कि R1 को कार्यसम्पादन यति उल्लेखनीय छ किनकि यसले फिर्ता गर्ने दुई फाइलहरू पहिलो प्रयासमा कुनै पनि सम्पादन वा पुन: प्रयास बिना नै निर्दोष रूपमा चल्छन्, जुन अत्यन्तै दुर्लभ छ।
पहिले, धेरैजसो मोडेलहरू या त एज केसहरूमा समाप्त हुन्थे, समाधानलाई अत्यधिक जटिल बनाइन्थ्यो, वा पर्याप्त परीक्षण कभरेजको अभाव हुन्थ्यो।
- अनुमान गहिराइ: जटिल समस्याहरू (जस्तै, भौतिक विज्ञान सिमुलेशन, बहु-चरण तार्किक पजलहरू) को लागि समस्या समाधान गर्ने क्षमताहरूमा उल्लेखनीय रूपमा वृद्धि भएको, एकल-कार्य सोच समय 30-60 मिनेटमा विस्तार गरिएको छ।
लामो समयसम्म सोच्ने समय अनलाइनमा सबैभन्दा बढी छलफल हुने सुविधा बनेको छ। केही प्रयोगकर्ताहरूले वास्तविक-विश्व परीक्षणहरूमा R1 को सोच्ने समय २५ मिनेटभन्दा बढी भएको रिपोर्ट गरे।

थप रूपमा, यो एक मात्र मोडेल जस्तो देखिन्छ जुन "९.९ माइनस ९.११ भनेको के हो?" को निरन्तर सही उत्तर दिन सक्षम छ।


१TP8T-R1-0528 ले उत्कृष्ट प्रदर्शन हासिल गर्यो सबै मूल्याङ्कन डेटासेटहरूमा
R1 को अघिल्लो संस्करणको तुलनामा, नयाँ मोडेलले जटिल तर्क कार्यहरूमा उल्लेखनीय सुधार देखाउँछ। उदाहरणका लागि, AIME २०२५ परीक्षणमा, नयाँ मोडेलको शुद्धता दर ७०१TP११T बाट ८७.५१TP११T मा बढ्यो।
यो सुधार मोडेलमा तर्कको बढ्दो गहिराइको कारणले हो: AIME २०२५ परीक्षण सेटमा, पुरानो मोडेलले प्रति प्रश्न औसत १२ हजार टोकन प्रयोग गर्यो, जबकि नयाँ मोडेलले प्रति प्रश्न औसत २३ हजार टोकन प्रयोग गर्यो, जसले समस्या समाधान प्रक्रियामा थप विस्तृत र गहन सोचलाई संकेत गर्दछ।
थप रूपमा, deepseek टोलीले DeepSeek-R1-0528 बाट तर्क शृङ्खलालाई डिस्टिल्ड गर्यो र Qwen3-8B बेसलाई फाइन-ट्युन गर्यो, जसको परिणामस्वरूप DeepSeek-R1-0528-Qwen3-8B बन्यो।
यो ८B मोडेलले AIME २०२४ को गणित परीक्षामा १TP8T-R1-0528 पछि दोस्रो स्थान हासिल गर्यो, जसले Qwen3-8B (+१०.०१TP11T) लाई उछिन्यो र Qwen3-235B सँग मेल खायो।
DeepSeek-R1-0528 को तर्क शृङ्खलाहरूले तर्क मोडेलहरूमा शैक्षिक अनुसन्धान र साना-स्तरीय मोडेलहरूको औद्योगिक विकासको लागि महत्त्वपूर्ण प्रभाव पार्नेछ।
केही नेटिजेनहरूले DeepSeek-R1 ले o3 जस्ता तर्क शृङ्खलाहरू सच्याउन र क्लाउड जस्तै रचनात्मक रूपमा संसारहरू निर्माण गर्न सक्षम भएकोमा प्रशंसा गरे।

यो कुरा ध्यान दिनु महत्त्वपूर्ण छ कि DeepSeek एक खुला-स्रोत मोडेल हो, जुन खुला-स्रोत मोडेलहरूको लागि एक प्रमुख विजय हो।

DeepSeek-R1-0528-Qwen3-8B जस्ता खुला स्रोत मोडेलहरूको लागि AIME २०२४ तुलना परिणामहरू
अन्य क्षमता अद्यावधिकहरू
- मतिभ्रम सुधार: DeepSeek R1 को नयाँ संस्करणले "मतिभ्रम" समस्याहरूको लागि कार्यसम्पादनलाई अनुकूलित गरेको छ। अघिल्लो संस्करणको तुलनामा, अद्यावधिक गरिएको मोडेलले पुनर्लेखन र पालिस गर्ने, सारांशित गर्ने, र पढ्ने समझ जस्ता कार्यहरूमा मतिभ्रम दरमा 45-50% कमी हासिल गर्दछ, जसले गर्दा थप सटीक र भरपर्दो परिणामहरू प्रदान गर्दछ।
- रचनात्मक लेखन: अघिल्लो R1 संस्करणको आधारमा, अद्यावधिक गरिएको R1 मोडेललाई निबन्ध, उपन्यास र गद्य लेखन शैलीहरूको लागि थप अनुकूलित गरिएको छ, जसले गर्दा यसले लामो, संरचनात्मक रूपमा पूर्ण कृतिहरू उत्पन्न गर्न सक्षम बनाउँछ र मानव प्राथमिकताहरूसँग बढी मिल्दोजुल्दो लेखन शैली प्रस्तुत गर्दछ।
- उपकरण आह्वान: DeepSeek-R1-0528 ले उपकरण आह्वानलाई समर्थन गर्दछ (सोचमा उपकरण आह्वान समर्थित छैन)। हालको मोडेलको Tau-Bench मूल्याङ्कन स्कोर एयरलाइनको लागि 53.5% र खुद्राको लागि 63.9% छ, जुन OpenAI o1-उच्चसँग तुलना गर्न सकिन्छ, तर अझै पनि o3-उच्च र Claude 4 Sonnet भन्दा पछाडि छ।
उदाहरणले LobeChat मार्फत DeepSeek-R1-0528 को उपकरण आह्वान क्षमता प्रयोग गरेर उत्पन्न गरिएको वेब लेख सारांश देखाउँछ। यसको अतिरिक्त, DeepSeek-R1-0528 लाई फ्रन्ट-एन्ड कोड जेनेरेसन र रोल-प्लेइङ जस्ता क्षेत्रहरूमा अद्यावधिक र सुधार गरिएको छ।

उदाहरणले वेब पृष्ठमा DeepSeek-R1-0528 प्रयोग गरेर HTML/CSS/JavaScript प्रयोग गरेर विकसित गरिएको आधुनिक र न्यूनतम शब्द कार्ड अनुप्रयोग देखाउँछ।

DeepSeek-R1-0528 अपडेटका मुख्य विशेषताहरू
- गुगल मोडेलहरूसँग तुलना गर्न सकिने गहिरो तर्क क्षमताहरू
- पाठ उत्पादन अनुकूलन: थप प्राकृतिक र राम्रो ढाँचाबद्ध
- अद्वितीय तर्क शैली: छिटो मात्र होइन तर अझ कठोर पनि
- दीर्घकालीन सोचको लागि समर्थन: एकल-कार्य प्रशोधन समय ३०-६० मिनेटसम्म पुग्न सक्छ

DeepSeek-R1 को नयाँ संस्करणको क्षमताहरू हामीले परीक्षण गरेका छौं। यद्यपि यो "माइनर संस्करण" अपडेट हो, यसको कार्यसम्पादन 'एपिकल' रूपमा बढाइएको छ।
विशेष गरी प्रोग्रामिङ क्षमताहरूको सन्दर्भमा, यो क्लाउड ४ र जेमिनी २.५ प्रोलाई उछिनेको वा बराबर भएको जस्तो लाग्छ। सबै प्रम्प्टहरू "एक-शट" हुन्, कुनै परिमार्जन आवश्यक पर्दैन! र यसको क्षमताहरू प्रदर्शन गर्न यसलाई सिधै वेब ब्राउजरमा चलाउन सकिन्छ।
नयाँ DeepSeek-R1 संस्करणको सोच प्रक्रिया बढी स्थिर छ भन्ने कुरा तपाईंले स्पष्ट रूपमा महसुस गर्न सक्नुहुन्छ।
तपाईंले deepseek-R1 लाई कुनै पनि प्रश्न सोध्न सक्नुहुन्छ जसको उत्तर जान्न चाहनुहुन्छ, तपाईंको प्रश्न अलि अर्थहीन भए पनि, यसले अझै पनि ध्यानपूर्वक सोच्नेछ र तर्कलाई व्यवस्थित गर्नेछ। हामी तपाईंलाई नवीनतम deepseek-R1 मोडेल प्रयोग गर्न सिफारिस गर्दछौं।
API अद्यावधिक जानकारी
API अद्यावधिक गरिएको छ, तर इन्टरफेस र कलिङ विधिहरू अपरिवर्तित नै छन्। नयाँ R1 API ले अझै पनि मोडेलको सोच प्रक्रिया हेर्न समर्थन गर्दछ र अब फंक्शन कलिङ र JsonOutput लाई पनि समर्थन गर्दछ।
deepseek टोलीले नयाँ R1 API मा max_tokens प्यारामिटरको अर्थ समायोजन गरेको छ: max_tokens ले अब मोडेलको एकल आउटपुटको कुल लम्बाइ (सोच प्रक्रिया सहित) लाई सीमित गर्दछ, जसको पूर्वनिर्धारित मान 32K र अधिकतम 64K हुन्छ। API प्रयोगकर्ताहरूलाई आउटपुट समयभन्दा पहिले नै काट्नबाट रोक्नको लागि max_tokens प्यारामिटर तुरुन्तै समायोजन गर्न सल्लाह दिइन्छ।
R1 मोडेल प्रयोग गर्ने बारे विस्तृत निर्देशनहरूको लागि, कृपया हेर्नुहोस् deepseek R1 API गाइड:
यो R1 अपडेट पछि, आधिकारिक वेबसाइट, मिनी प्रोग्राम, एप र API मा मोडेलको सन्दर्भ लम्बाइ 64K रहनेछ। यदि प्रयोगकर्ताहरूलाई लामो सन्दर्भ लम्बाइ चाहिन्छ भने, तिनीहरूले अन्य तेस्रो-पक्ष प्लेटफर्महरू मार्फत 128K को सन्दर्भ लम्बाइ भएको R1-0528 मोडेलको खुला-स्रोत संस्करणलाई कल गर्न सक्छन्।
खुला स्रोत
१TP8T-R1-0528 ले अघिल्लो १TP8T-R1 जस्तै आधार मोडेल प्रयोग गर्दछ, तालिम पछिका विधिहरूमा मात्र सुधार गरिएको छ।
निजी रूपमा तैनाथ गर्दा, चेकप्वाइन्ट र tokenizer_config.json (उपकरण कल-सम्बन्धित परिवर्तनहरू) मात्र अद्यावधिक गर्न आवश्यक छ। मोडेल प्यारामिटरहरू 685B छन् (जसमध्ये 14B MTP तहको लागि हो), र खुला-स्रोत संस्करणको सन्दर्भ लम्बाइ 128K छ (वेब, एप र API को लागि 64K सन्दर्भ लम्बाइ प्रदान गरिएको छ)।