دی DeepSeek R1 ماڈل ایک معمولی ورژن اپ گریڈ کیا گیا ہے، موجودہ ورژن DeepSeek-R1-0528 ہے۔ جب آپ DeepSeek ویب پیج یا ایپ میں داخل ہوتے ہیں، تو تازہ ترین ورژن کا تجربہ کرنے کے لیے ڈائیلاگ انٹرفیس میں "ڈیپ تھنکنگ" فیچر کو فعال کریں۔
DeepSeek-R1-0528 ماڈل کے وزن کو HuggingFace پر اپ لوڈ کر دیا گیا ہے۔

پچھلے چار مہینوں کے دوران، DeepSeek-R1 نے انتہائی ارتقاء سے گزرا ہے، کوڈنگ کی ایسی صلاحیتیں حاصل کی ہیں جو چارٹ سے باہر ہیں اور سوچنے کا وقت نمایاں طور پر طویل ہے۔ جبکہ یہ نہیں ہو سکتا DeepSeek-R2 ہر کوئی توقع کر رہا تھا، DeepSeek-R1-0528 ماڈل میں بہتری کافی ہے۔
رپورٹس کے مطابق، نئے ماڈل کو DeepSeek-V3-0324 (660B پیرامیٹرز کے ساتھ) پر تربیت دی گئی ہے۔
آئیے پہلے ٹیبل کے ذریعے اس ریلیز میں اہم اپ ڈیٹس پر ایک سرسری نظر ڈالیں۔
صلاحیت کا طول و عرض | deepseek-R1 | Deepseek-R1-0528 |
زیادہ سے زیادہ سیاق و سباق | 64k(API) | 128K (API) اور بھی زیادہ |
کوڈ جنریشن | liveCodeBench بند اوپنائی O1 | O3 کے قریب |
استدلال کی گہرائی | پیچیدہ سوالات کو الگ الگ اشارے کی ضرورت ہوتی ہے۔ | 30-60 منٹ کی گہری سوچ کی حمایت کرتا ہے۔ |
زبان کی فطرت | بلکہ لمبا | کومپیکٹ ڈھانچہ، O3 کی طرح لکھنا |
استعمال کی لاگت | اوپن سورس یا API$0.5/M | اوپن سورس یا API$0.5/M |
گہری سوچ کی صلاحیتوں کو بڑھایا
DeepSeek-R1-0528 اب بھی دسمبر 2024 میں جاری کردہ DeepSeek V3 بیس ماڈل کو اپنی بنیاد کے طور پر استعمال کرتا ہے، لیکن پوسٹ ٹریننگ کے دوران، زیادہ کمپیوٹنگ پاور کی سرمایہ کاری کی گئی، جس سے ماڈل کی سوچ کی گہرائی اور استدلال کی صلاحیتوں میں نمایاں اضافہ ہوا۔
اپ ڈیٹ شدہ R1 ماڈل نے متعدد بینچ مارک تشخیصات میں تمام گھریلو ماڈلز کے درمیان اعلیٰ درجے کی کارکردگی حاصل کی ہے، بشمول ریاضی، پروگرامنگ، اور عمومی منطق، اور اس کی مجموعی کارکردگی اب دیگر بین الاقوامی اعلیٰ درجے کے ماڈلز جیسے o3 اور Gemini-2.5-Pro کے برابر ہے۔
- ریاضی اور پروگرامنگ کی صلاحیتیں: AIME 2025 کے ریاضی کے مقابلے میں، درستگی پچھلے ورژن میں 70% سے بہتر ہو کر 87.5% ہو گئی۔ LiveCodeBench بینچ مارک ٹیسٹ میں کوڈ بنانے کی صلاحیتیں OpenAI کے o3-high ماڈل کے برابر ہیں، pass@1 کا سکور حاصل کرنا 73.3% ہے۔
صارف کے ٹیسٹ سے پتہ چلتا ہے کہ نیا DeepSeek-R1 صرف پروگرامنگ میں حیران کن ہے!
AI ماہر "karminski-dentist" نے اسی پرامپٹ کا استعمال کرتے ہوئے DeepSeek-R1-0528 اور Claude 4 Sonnet کا تجربہ کیا اور پایا کہ:

چاہے وہ دیوار پر روشنی کا پھیلا ہوا انعکاس ہو، اثر کے بعد گیند کی حرکت کی سمت، یا کنٹرول پینل کی جمالیاتی اپیل، R1 واضح طور پر مقابلے کو پیچھے چھوڑ دیتا ہے۔
صارف حیدر۔ ماڈل نے ورڈ اسکورنگ سسٹم بنایا تھا۔ R1 نے کام پر مختصراً غور کیا اور فوری طور پر دو فائلیں تیار کیں- ایک کوڈ کے لیے اور دوسری کام کی جانچ کے لیے- جو پہلی کوشش میں بے عیب طریقے سے چلی گئیں۔

پہلے، o3 واحد ماڈل تھا جو اس کام کو مکمل کرنے کے قابل تھا۔ اب، R1 بلاشبہ اس کام کے لیے بہترین ماڈل ہے۔
نوٹ کریں کہ R1 کی کارکردگی بہت قابل ذکر ہے کیونکہ اس کی واپسی والی دو فائلیں بغیر کسی ترمیم یا دوبارہ کوشش کے پہلی کوشش میں بے عیب طریقے سے چلتی ہیں، جو کہ انتہائی نایاب ہے۔
اس سے پہلے، زیادہ تر ماڈلز یا تو کنارے کے معاملات میں ختم ہو جاتے تھے، حل کو زیادہ پیچیدہ بناتے تھے، یا مناسب ٹیسٹ کوریج کی کمی تھی۔
- انفرنس گہرائی: سنگل ٹاسک سوچنے کا وقت 30-60 منٹ تک بڑھایا گیا ہے، جس میں پیچیدہ مسائل کے لیے مسئلہ حل کرنے کی صلاحیتوں میں نمایاں اضافہ کیا گیا ہے (مثلاً، فزکس سمولیشنز، ملٹی سٹیپ منطقی پہیلیاں)۔
لمبا سوچنے کا وقت آن لائن سب سے زیادہ زیر بحث خصوصیت بن گیا ہے۔ کچھ صارفین نے رپورٹ کیا کہ حقیقی دنیا کے ٹیسٹوں میں R1 کا سوچنے کا وقت 25 منٹ سے زیادہ ہے۔

مزید برآں، ایسا لگتا ہے کہ یہ واحد ماڈل ہے جو مستقل طور پر صحیح جواب دینے کے قابل ہے "9.9 مائنس 9.11 کیا ہے؟"


DeepSeek-R1-0528 نے بہترین کارکردگی حاصل کی۔ تمام تشخیصی ڈیٹاسیٹس پر
R1 کے پچھلے ورژن کے مقابلے میں، نیا ماڈل پیچیدہ استدلال کے کاموں میں نمایاں بہتری دکھاتا ہے۔ مثال کے طور پر، AIME 2025 ٹیسٹ میں، نئے ماڈل کی درستگی کی شرح 70% سے بڑھ کر 87.5% ہو گئی۔
یہ بہتری ماڈل میں استدلال کی بہتر گہرائی کی وجہ سے ہے: AIME 2025 ٹیسٹ سیٹ پر، پرانے ماڈل نے فی سوال اوسطاً 12K ٹوکن استعمال کیے، جب کہ نئے ماڈل میں فی سوال اوسطاً 23K ٹوکن استعمال کیے گئے، جو مسئلہ حل کرنے کے عمل میں مزید تفصیلی اور گہرائی سے سوچنے کی نشاندہی کرتا ہے۔
مزید برآں، deepseek ٹیم نے DeepSeek-R1-0528 سے ریجننگ چین کو ڈسٹل کیا اور Qwen3-8B بیس کو ٹھیک کیا، جس کے نتیجے میں DeepSeek-R1-0528-Qwen3-8B نکلا۔
یہ 8B ماڈل AIME 2024 ریاضی کے امتحان میں صرف DeepSeek-R1-0528 کے بعد دوسرے نمبر پر ہے، جس نے Qwen3-8B (+10.0%) اور Qwen3-235B سے مماثل کارکردگی کا مظاہرہ کیا۔
DeepSeek-R1-0528 کی استدلال کی زنجیریں استدلال کے ماڈلز پر تعلیمی تحقیق اور چھوٹے پیمانے کے ماڈلز کی صنعتی ترقی کے لیے اہم اثرات مرتب کریں گی۔
کچھ netizens نے DeepSeek-R1 کی تعریف کی کہ وہ o3 جیسی استدلال کی زنجیروں کو درست کرنے اور کلاڈ جیسی دنیا کو تخلیقی طور پر تعمیر کرنے کے قابل ہے۔

یہ نوٹ کرنا ضروری ہے کہ DeepSeek ایک اوپن سورس ماڈل ہے، جو اوپن سورس ماڈلز کے لیے ایک بڑی فتح کا نشان ہے۔

اوپن سورس ماڈلز جیسے DeepSeek-R1-0528-Qwen3-8B کے لیے AIME 2024 کے مقابلے کے نتائج
دیگر صلاحیتوں کی تازہ کاری
- ہیلوسینیشن میں بہتری: DeepSeek R1 کے نئے ورژن نے "ہیلوسینیشن" کے مسائل کے لیے کارکردگی کو بہتر بنایا ہے۔ پچھلے ورژن کے مقابلے میں، اپ ڈیٹ شدہ ماڈل زیادہ درست اور قابل اعتماد نتائج فراہم کرنے، دوبارہ لکھنے اور چمکانے، خلاصہ کرنے، اور پڑھنے کی فہم جیسے کاموں میں فریب کاری کی شرح میں 45–50% کمی حاصل کرتا ہے۔
- تخلیقی تحریر: پچھلے R1 ورژن کی بنیاد پر، اپ ڈیٹ کردہ R1 ماڈل کو مضمون، ناول اور نثر لکھنے کے اسلوب کے لیے مزید بہتر بنایا گیا ہے، جس سے اسے طویل، زیادہ ساختی طور پر مکمل کام تخلیق کرنے کے قابل بنایا گیا ہے جبکہ ایک تحریری انداز پیش کیا گیا ہے جو انسانی ترجیحات کے ساتھ زیادہ ہم آہنگ ہو۔
- ٹول کی درخواست: DeepSeek-R1-0528 ٹول انوکیشن کو سپورٹ کرتا ہے (سوچ میں ٹول انوکیشن کی حمایت نہیں کی جاتی ہے)۔ موجودہ ماڈل کے Tau-Bench کے تشخیصی اسکور ایئر لائن کے لیے 53.5% اور پرچون کے لیے 63.9% ہیں، جو OpenAI o1-high کے مقابلے ہیں، لیکن پھر بھی o3-High اور Claude 4 Sonnet سے پیچھے ہیں۔
مثال LobeChat کے ذریعے DeepSeek-R1-0528 کے ٹول انوکیشن کی صلاحیت کا استعمال کرتے ہوئے تیار کردہ ویب آرٹیکل کا خلاصہ دکھاتی ہے۔ اس کے علاوہ، DeepSeek-R1-0528 کو فرنٹ اینڈ کوڈ جنریشن اور رول پلےنگ جیسے شعبوں میں اپ ڈیٹ اور بہتر کیا گیا ہے۔

مثال ایک ویب صفحہ پر DeepSeek-R1-0528 کا استعمال کرتے ہوئے HTML/CSS/JavaScript کا استعمال کرتے ہوئے تیار کردہ ایک جدید اور کم سے کم لفظ کارڈ ایپلی کیشن کو ظاہر کرتی ہے۔

DeepSeek-R1-0528 اپ ڈیٹ کی اہم جھلکیاں
- گہری استدلال کی صلاحیتیں گوگل ماڈلز سے موازنہ
- ٹیکسٹ جنریشن کی اصلاح: زیادہ قدرتی اور بہتر فارمیٹ
- منفرد استدلال کا انداز: نہ صرف تیز بلکہ زیادہ سخت بھی
- طویل مدتی سوچ کے لیے سپورٹ: سنگل ٹاسک پروسیسنگ کا وقت 30-60 منٹ تک پہنچ سکتا ہے۔

ہمارے ذریعہ DeepSeek-R1 کے نئے ورژن کی صلاحیتوں کی جانچ کی گئی ہے۔ اگرچہ یہ ایک "معمولی ورژن" اپ ڈیٹ ہے، لیکن اس کی کارکردگی کو 'Epically' بڑھا دیا گیا ہے۔
خاص طور پر پروگرامنگ کی صلاحیتوں کے معاملے میں، ایسا محسوس ہوتا ہے کہ یہ کلاڈ 4 اور جیمنی 2.5 پرو سے آگے نکل گیا ہے یا اس کے برابر ہے۔ تمام اشارے "ون شاٹ" ہیں، جن میں کسی ترمیم کی ضرورت نہیں ہے! اور اسے اپنی صلاحیتوں کا مظاہرہ کرنے کے لیے براہ راست ویب براؤزر میں چلایا جا سکتا ہے۔
آپ واضح طور پر محسوس کر سکتے ہیں کہ نئے DeepSeek-R1 ورژن کا سوچنے کا عمل زیادہ مستحکم ہے۔
آپ deepseek-R1 سے کوئی بھی سوال پوچھ سکتے ہیں جس کا آپ جواب جاننا چاہتے ہیں، چاہے آپ کا سوال تھوڑا سا بے ہودہ ہو، پھر بھی یہ غور سے سوچے گا اور منطق کو ترتیب دے گا۔ ہم آپ کو تازہ ترین deepseek-R1 ماڈل آزمانے کی انتہائی سفارش کرتے ہیں۔
API اپ ڈیٹ کی معلومات
API کو اپ ڈیٹ کر دیا گیا ہے، لیکن انٹرفیس اور کال کرنے کے طریقے بدستور برقرار ہیں۔ نیا R1 API اب بھی ماڈل کے سوچنے کے عمل کو دیکھنے کی حمایت کرتا ہے اور اب فنکشن کالنگ اور JsonOutput کو بھی سپورٹ کرتا ہے۔
deepseek ٹیم نے نئے R1 API میں max_tokens پیرامیٹر کے معنی کو ایڈجسٹ کیا ہے: max_tokens اب ماڈل کے واحد آؤٹ پٹ (سوچنے کے عمل سمیت) کی کل لمبائی کو محدود کرتا ہے، جس کی ڈیفالٹ قدر 32K اور زیادہ سے زیادہ 64K ہے۔ API صارفین کو مشورہ دیا جاتا ہے کہ وہ max_tokens پیرامیٹر کو فوری طور پر ایڈجسٹ کریں تاکہ آؤٹ پٹ کو قبل از وقت کٹ جانے سے بچایا جا سکے۔
R1 ماڈل استعمال کرنے کے بارے میں تفصیلی ہدایات کے لیے، براہ کرم ملاحظہ کریں۔ deepseek R1 API گائیڈ:
اس R1 اپ ڈیٹ کے بعد، آفیشل ویب سائٹ، منی پروگرام، ایپ، اور API پر ماڈل سیاق و سباق کی لمبائی 64K رہے گی۔ اگر صارفین کو سیاق و سباق کی لمبائی کی ضرورت ہے، تو وہ دوسرے فریق ثالث پلیٹ فارمز کے ذریعے 128K کے سیاق و سباق کی لمبائی کے ساتھ R1-0528 ماڈل کے اوپن سورس ورژن کو کال کر سکتے ہیں۔
اوپن سورس
DeepSeek-R1-0528 پچھلے DeepSeek-R1 جیسا ہی بیس ماڈل استعمال کرتا ہے، صرف تربیت کے بعد کے طریقوں میں بہتری کے ساتھ۔
نجی طور پر تعینات کرتے وقت، صرف چیک پوائنٹ اور tokenizer_config.json (ٹول کالز سے متعلق تبدیلیاں) کو اپ ڈیٹ کرنے کی ضرورت ہے۔ ماڈل کے پیرامیٹرز 685B ہیں (جس میں سے 14B MTP پرت کے لیے ہے)، اور اوپن سورس ورژن کی سیاق و سباق کی لمبائی 128K ہے (64K سیاق و سباق کی لمبائی ویب، ایپ اور API کے لیے فراہم کی گئی ہے)۔