The DeepSeek R1 मॉडल DeepSeek-R1-0528 के वर्तमान संस्करण के साथ, एक मामूली संस्करण अपग्रेड किया गया है। जब आप DeepSeek वेबपेज या ऐप में प्रवेश करते हैं, तो नवीनतम संस्करण का अनुभव करने के लिए संवाद इंटरफ़ेस में "डीप थिंकिंग" सुविधा को सक्षम करें।

DeepSeek-R1-0528 मॉडल का वजन HuggingFace पर अपलोड कर दिया गया है

पिछले चार महीनों में, DeepSeek-R1 में बहुत ज़्यादा बदलाव हुए हैं, इसने कोडिंग क्षमताएं हासिल की हैं जो चार्ट से बाहर हैं और सोचने में काफ़ी समय लगता है। हालाँकि यह सबसे बढ़िया नहीं हो सकता है 1टीपी8टी-आर2 जैसा कि सभी को उम्मीद थी, DeepSeek-R1-0528 मॉडल में सुधार काफी महत्वपूर्ण हैं।

रिपोर्टों के अनुसार, नया मॉडल DeepSeek-V3-0324 (660B मापदंडों के साथ) पर प्रशिक्षित है।

आइए सबसे पहले एक तालिका के माध्यम से इस रिलीज़ में प्रमुख अपडेट पर एक त्वरित नज़र डालें

क्षमता आयाम1टीपी3टीडीपसीक-R1-0528
अधिकतम संदर्भ64k(एपीआई)128K(API)और भी अधिक
कोड जनरेशनliveCodeBench बंद openai O1O3 के करीब
तर्क की गहराईजटिल प्रश्नों के लिए खंडित संकेत की आवश्यकता होती है।30-60 मिनट तक गहन चिंतन का समर्थन करता है
भाषा स्वाभाविकताबल्कि लंबाकॉम्पैक्ट संरचना, O3 के समान लेखन
उपयोग लागतओपन-सोर्स या API$0.5/Mओपन-सोर्स या API$0.5/M

गहन चिंतन क्षमता में वृद्धि

DeepSeek-R1-0528 अभी भी अपने आधार के रूप में दिसंबर 2024 में जारी DeepSeek V3 बेस मॉडल का उपयोग करता है, लेकिन प्रशिक्षण के बाद, अधिक कंप्यूटिंग शक्ति का निवेश किया गया, जिससे मॉडल की सोच की गहराई और तर्क क्षमताओं में काफी वृद्धि हुई।

अद्यतन R1 मॉडल ने गणित, प्रोग्रामिंग और सामान्य तर्क सहित कई बेंचमार्क मूल्यांकनों में सभी घरेलू मॉडलों के बीच शीर्ष स्तरीय प्रदर्शन हासिल किया है, और इसका समग्र प्रदर्शन अब o3 और जेमिनी-2.5-प्रो जैसे अन्य अंतरराष्ट्रीय शीर्ष स्तरीय मॉडलों के बराबर है।

  • गणित और प्रोग्रामिंग क्षमताएं: AIME 2025 गणित प्रतियोगिता में, सटीकता पिछले संस्करण में 70% से बढ़कर 87.5% हो गई; लाइवकोडबेंच बेंचमार्क परीक्षण में कोड जनरेशन क्षमताएं लगभग OpenAI के o3-हाई मॉडल के बराबर हैं, पास@1 का स्कोर 73.3% प्राप्त हुआ है।

उपयोगकर्ता परीक्षण से पता चलता है कि नया DeepSeek-R1 प्रोग्रामिंग में आश्चर्यजनक है!

एआई विशेषज्ञ "कार्मिंस्की-डेंटिस्ट" ने एक ही प्रॉम्प्ट का उपयोग करके DeepSeek-R1-0528 और क्लाउड 4 सॉनेट का परीक्षण किया और पाया कि:

चाहे वह दीवार पर प्रकाश का विसरित परावर्तन हो, प्रभाव के बाद गेंद की गति की दिशा हो, या नियंत्रण पैनल का सौंदर्यात्मक आकर्षण हो, आर1 स्पष्ट रूप से प्रतिस्पर्धा से बेहतर प्रदर्शन करता है।

उपयोगकर्ता हैदर ने मॉडल को एक शब्द-स्कोरिंग सिस्टम बनाने के लिए कहा। R1 ने कार्य पर संक्षेप में विचार किया और तुरंत दो फाइलें तैयार कीं - एक कोड के लिए और दूसरी कार्य परीक्षण के लिए - जो पहले प्रयास में ही बिना किसी समस्या के चल गईं।

पहले, o3 ही एकमात्र मॉडल था जो इस कार्य को पूरा करने में सक्षम था। अब, R1 निस्संदेह इस कार्य के लिए सबसे अच्छा मॉडल है।

ध्यान दें कि R1 का प्रदर्शन इतना उल्लेखनीय है, क्योंकि इसके द्वारा लौटाई गई दो फाइलें, बिना किसी संपादन या पुनः प्रयास के, पहली बार में ही त्रुटिरहित ढंग से चलती हैं, जो कि अत्यंत दुर्लभ है।

इससे पहले, अधिकांश मॉडल या तो किनारे के मामलों में समाप्त हो जाते थे, समाधान को अत्यधिक जटिल बना देते थे, या उनमें पर्याप्त परीक्षण कवरेज का अभाव होता था।

  • अनुमान की गहराई: एकल-कार्य चिंतन समय को 30-60 मिनट तक बढ़ाया गया, साथ ही जटिल मुद्दों (जैसे, भौतिकी सिमुलेशन, बहु-चरणीय तार्किक पहेलियाँ) के लिए समस्या-समाधान क्षमताओं में उल्लेखनीय वृद्धि की गई।

ऑनलाइन सबसे ज़्यादा चर्चित फीचर है लंबा सोचने का समय। कुछ उपयोगकर्ताओं ने बताया कि वास्तविक दुनिया के परीक्षणों में R1 का सोचने का समय 25 मिनट से ज़्यादा था।

इसके अतिरिक्त, यह एकमात्र ऐसा मॉडल प्रतीत होता है जो लगातार सही ढंग से उत्तर देने में सक्षम है कि "9.9 माइनस 9.11 क्या है?"

DeepSeek-R1-0528 ने उत्कृष्ट प्रदर्शन हासिल किया सभी मूल्यांकन डेटासेट पर

R1 के पिछले संस्करण की तुलना में, नया मॉडल जटिल तर्क कार्यों में महत्वपूर्ण सुधार दिखाता है। उदाहरण के लिए, AIME 2025 परीक्षण में, नए मॉडल की सटीकता दर 70% से बढ़कर 87.5% हो गई।

यह सुधार मॉडल में तर्क की बढ़ी हुई गहराई के कारण है: AIME 2025 परीक्षण सेट पर, पुराने मॉडल ने प्रति प्रश्न औसतन 12K टोकन का उपयोग किया था, जबकि नए मॉडल ने प्रति प्रश्न औसतन 23K टोकन का उपयोग किया, जो समस्या-समाधान प्रक्रिया में अधिक विस्तृत और गहन सोच का संकेत देता है।

इसके अतिरिक्त, deepseek टीम ने DeepSeek-R1-0528 से तर्क श्रृंखला को निकाला और Qwen3-8B बेस को परिष्कृत किया, जिसके परिणामस्वरूप DeepSeek-R1-0528-Qwen3-8B बना।

यह 8B मॉडल AIME 2024 गणित परीक्षण में DeepSeek-R1-0528 के बाद दूसरे स्थान पर रहा, तथा Qwen3-8B (+10.0%) से बेहतर प्रदर्शन किया तथा Qwen3-235B के बराबर रहा।

DeepSeek-R1-0528 की तर्क श्रृंखलाएं तर्क मॉडलों पर अकादमिक अनुसंधान और लघु-स्तरीय मॉडलों के औद्योगिक विकास के लिए महत्वपूर्ण निहितार्थ रखेंगी।

कुछ नेटिज़न्स ने DeepSeek-R1 की प्रशंसा की क्योंकि वह o3 की तरह तर्क श्रृंखला को सही करने में सक्षम है और क्लाउड की तरह रचनात्मक रूप से दुनिया का निर्माण करता है।

यह ध्यान रखना महत्वपूर्ण है कि DeepSeek एक ओपन-सोर्स मॉडल है, जो ओपन-सोर्स मॉडलों के लिए एक बड़ी जीत है।

DeepSeek-R1-0528-Qwen3-8B जैसे ओपन-सोर्स मॉडल के लिए AIME 2024 तुलना परिणाम

अन्य क्षमता अद्यतन

  • मतिभ्रम में सुधार: DeepSeek R1 के नए संस्करण ने "मतिभ्रम" मुद्दों के लिए प्रदर्शन को अनुकूलित किया है। पिछले संस्करण की तुलना में, अपडेट किया गया मॉडल पुनर्लेखन और पॉलिशिंग, सारांश और पढ़ने की समझ जैसे कार्यों में मतिभ्रम दरों में 45-50% की कमी प्राप्त करता है, जिससे अधिक सटीक और विश्वसनीय परिणाम मिलते हैं।
  • रचनात्मक लेखन: पिछले R1 संस्करण के आधार पर, अद्यतन R1 मॉडल को निबंध, उपन्यास और गद्य लेखन शैलियों के लिए और अधिक अनुकूलित किया गया है, जिससे यह अधिक लम्बी, संरचनात्मक रूप से पूर्ण रचनाएं तैयार करने में सक्षम हो गया है, तथा साथ ही एक ऐसी लेखन शैली प्रस्तुत की गई है जो मानवीय प्राथमिकताओं के साथ अधिक संरेखित है।
  • टूल इनवोकेशन: DeepSeek-R1-0528 टूल इनवोकेशन का समर्थन करता है (थिंकिंग में टूल इनवोकेशन का समर्थन नहीं किया जाता है)। वर्तमान मॉडल के ताऊ-बेंच मूल्यांकन स्कोर एयरलाइन के लिए 53.5% और रिटेल के लिए 63.9% हैं, जो OpenAI o1-high के बराबर है, लेकिन अभी भी o3-High और क्लाउड 4 सॉनेट से पीछे है।

उदाहरण में LobeChat के माध्यम से DeepSeek-R1-0528 की टूल इनवोकेशन क्षमता का उपयोग करके तैयार किया गया वेब आलेख सारांश दिखाया गया है। इसके अलावा, DeepSeek-R1-0528 को फ्रंट-एंड कोड जेनरेशन और रोल-प्लेइंग जैसे क्षेत्रों में अपडेट और सुधार किया गया है।

यह उदाहरण एक आधुनिक और न्यूनतम शब्द कार्ड अनुप्रयोग को दर्शाता है, जिसे वेब पेज पर DeepSeek-R1-0528 का प्रयोग करके HTML/CSS/JavaScript का प्रयोग करके विकसित किया गया है।

DeepSeek-R1-0528 अपडेट की मुख्य विशेषताएं

  • गूगल मॉडल के बराबर गहन तर्क क्षमता
  • पाठ निर्माण अनुकूलन: अधिक स्वाभाविक और बेहतर स्वरूपित
  • अद्वितीय तर्क शैली: न केवल तेज़ बल्कि अधिक कठोर भी
  • दीर्घकालिक सोच के लिए समर्थन: एकल-कार्य प्रसंस्करण समय 30-60 मिनट तक पहुंच सकता है

DeepSeek-R1 के नए संस्करण की क्षमताओं का परीक्षण हमारे द्वारा किया गया है। हालाँकि यह एक "मामूली संस्करण" अपडेट है, लेकिन इसके प्रदर्शन को 'महाकाव्यात्मक रूप से' बढ़ाया गया है।

खास तौर पर प्रोग्रामिंग क्षमताओं के मामले में, ऐसा लगता है कि यह क्लाउड 4 और जेमिनी 2.5 प्रो से आगे निकल गया है या उनके बराबर है। सभी संकेत "वन-शॉट" हैं, जिन्हें किसी संशोधन की आवश्यकता नहीं है! और इसकी क्षमताओं को प्रदर्शित करने के लिए इसे सीधे वेब ब्राउज़र में चलाया जा सकता है।

आप स्पष्ट रूप से महसूस कर सकते हैं कि नए DeepSeek-R1 संस्करण की सोचने की प्रक्रिया अधिक स्थिर है।

आप deepseek-R1 से कोई भी सवाल पूछ सकते हैं जिसका जवाब आप जानना चाहते हैं, भले ही आपका सवाल थोड़ा बेतुका हो, फिर भी यह ध्यान से सोचेगा और तर्क को व्यवस्थित करेगा। हम आपको नवीनतम deepseek-R1 मॉडल आज़माने की अत्यधिक अनुशंसा करते हैं।

एपीआई अद्यतन जानकारी

API को अपडेट किया गया है, लेकिन इंटरफ़ेस और कॉलिंग विधियाँ अपरिवर्तित बनी हुई हैं। नया R1 API अभी भी मॉडल की सोच प्रक्रिया को देखने का समर्थन करता है और अब फ़ंक्शन कॉलिंग और JsonOutput का भी समर्थन करता है।

deepseek टीम ने नए R1 API में max_tokens पैरामीटर का अर्थ समायोजित किया है: max_tokens अब मॉडल के एकल आउटपुट (सोच प्रक्रिया सहित) की कुल लंबाई को सीमित करता है, जिसका डिफ़ॉल्ट मान 32K और अधिकतम 64K है। API उपयोगकर्ताओं को सलाह दी जाती है कि वे आउटपुट को समय से पहले छोटा होने से बचाने के लिए max_tokens पैरामीटर को तुरंत समायोजित करें।

R1 मॉडल के उपयोग पर विस्तृत निर्देशों के लिए, कृपया देखें deepseek R1 API गाइड:

इस R1 अपडेट के बाद, आधिकारिक वेबसाइट, मिनी प्रोग्राम, ऐप और API पर मॉडल संदर्भ लंबाई 64K ही रहेगी। यदि उपयोगकर्ताओं को अधिक संदर्भ लंबाई की आवश्यकता होती है, तो वे अन्य तृतीय-पक्ष प्लेटफ़ॉर्म के माध्यम से 128K की संदर्भ लंबाई वाले R1-0528 मॉडल के ओपन-सोर्स संस्करण को कॉल कर सकते हैं।

खुला स्त्रोत

DeepSeek-R1-0528 पिछले DeepSeek-R1 के समान ही आधार मॉडल का उपयोग करता है, केवल प्रशिक्षण-पश्चात विधियों में सुधार किया गया है।

निजी तौर पर तैनात करते समय, केवल चेकपॉइंट और टोकनाइज़र_कॉन्फ़िगरेशन.json (टूल कॉल-संबंधित परिवर्तन) को अपडेट करने की आवश्यकता होती है। मॉडल पैरामीटर 685B हैं (जिनमें से 14B MTP परत के लिए है), और ओपन-सोर्स संस्करण की संदर्भ लंबाई 128K है (वेब, ऐप और API के लिए 64K संदर्भ लंबाई प्रदान की जाती है)।

इसी तरह की पोस्ट

प्रातिक्रिया दे

आपका ईमेल पता प्रकाशित नहीं किया जाएगा. आवश्यक फ़ील्ड चिह्नित हैं *