দ DeepSeek R1 মডেল একটি ছোটখাটো সংস্করণ আপগ্রেড করা হয়েছে, বর্তমান সংস্করণটি হল DeepSeek-R1-0528। আপনি যখন DeepSeek ওয়েবপৃষ্ঠা বা অ্যাপে প্রবেশ করবেন, তখন সর্বশেষ সংস্করণটি উপভোগ করার জন্য ডায়ালগ ইন্টারফেসে "গভীর চিন্তাভাবনা" বৈশিষ্ট্যটি সক্ষম করুন।
DeepSeek-R1-0528 মডেলের ওজনগুলি HuggingFace-এ আপলোড করা হয়েছে।

গত চার মাস ধরে, DeepSeek-R1 অতি-বিবর্তনের মধ্য দিয়ে গেছে, কোডিং ক্ষমতা অর্জন করেছে যা চার্টের বাইরে এবং উল্লেখযোগ্যভাবে দীর্ঘ চিন্তাভাবনার সময় অর্জন করেছে। যদিও এটি সম্ভবত DeepSeek-R2 সম্পর্কে সবাই আশা করছিল, DeepSeek-R1-0528 মডেলের উন্নতি উল্লেখযোগ্য।
রিপোর্ট অনুসারে, নতুন মডেলটি DeepSeek-V3-0324 (660B প্যারামিটার সহ) ব্যবহার করে প্রশিক্ষিত।
প্রথমে একটি টেবিলের মাধ্যমে এই রিলিজের মূল আপডেটগুলি একবার দেখে নেওয়া যাক।
ক্ষমতা মাত্রা | ১টিপি৩টি | ডিপসিক-R1-0528 |
সর্বাধিক প্রসঙ্গ | ৬৪k(এপিআই) | ১২৮K(API) আরও বেশি |
কোড জেনারেশন | liveCodeBench বন্ধ করুন openai O1 | O3 এর কাছাকাছি |
যুক্তির গভীরতা | জটিল প্রশ্নের জন্য বিভাগযুক্ত প্রম্পট প্রয়োজন। | ৩০-৬০ মিনিট গভীর চিন্তাভাবনা সমর্থন করে |
ভাষার স্বাভাবিকতা | বেশ লম্বা | কম্প্যাক্ট গঠন, লেখা O3 এর মতো |
ব্যবহারের খরচ | ওপেন-সোর্স অথবা API$0.5/M | ওপেন-সোর্স অথবা API$0.5/M |
গভীর চিন্তা করার ক্ষমতা বৃদ্ধি পেয়েছে
DeepSeek-R1-0528 এখনও 2024 সালের ডিসেম্বরে প্রকাশিত DeepSeek V3 বেস মডেলটিকে তার ভিত্তি হিসেবে ব্যবহার করে, তবে প্রশিক্ষণ-পরবর্তী সময়ে, আরও কম্পিউটিং শক্তি বিনিয়োগ করা হয়েছিল, যা মডেলের চিন্তাভাবনার গভীরতা এবং যুক্তি ক্ষমতা উল্লেখযোগ্যভাবে বৃদ্ধি করেছিল।
আপডেট করা R1 মডেলটি গণিত, প্রোগ্রামিং এবং সাধারণ যুক্তি সহ একাধিক বেঞ্চমার্ক মূল্যায়নে সমস্ত দেশীয় মডেলের মধ্যে শীর্ষ-স্তরের কর্মক্ষমতা অর্জন করেছে এবং এর সামগ্রিক কর্মক্ষমতা এখন o3 এবং Gemini-2.5-Pro-এর মতো অন্যান্য আন্তর্জাতিক শীর্ষ-স্তরের মডেলের সমতুল্য।
- গণিত এবং প্রোগ্রামিং ক্ষমতা: AIME 2025 গণিত প্রতিযোগিতায়, পূর্ববর্তী সংস্করণে 70% থেকে নির্ভুলতা 87.5%-তে উন্নীত হয়েছে; LiveCodeBench বেঞ্চমার্ক পরীক্ষায় কোড তৈরির ক্ষমতা প্রায় OpenAI-এর o3-উচ্চ মডেলের সমান, pass@1 স্কোর অর্জন করা হল 73.3%।
ব্যবহারকারীদের পরীক্ষায় দেখা গেছে যে নতুন DeepSeek-R1 প্রোগ্রামিংয়ের দিক থেকে অসাধারণ!
এআই বিশেষজ্ঞ "কারমিনস্কি-ডেন্টিস্ট" একই প্রম্পট ব্যবহার করে DeepSeek-R1-0528 এবং ক্লড 4 সনেট পরীক্ষা করেছেন এবং দেখেছেন যে:

দেয়ালে আলোর বিচ্ছুরিত প্রতিফলন, আঘাতের পর বলের চলাচলের দিক, অথবা নিয়ন্ত্রণ প্যানেলের নান্দনিক আবেদন যাই হোক না কেন, R1 স্পষ্টতই প্রতিযোগিতার চেয়ে এগিয়ে।
ব্যবহারকারী হায়দার। মডেলটিকে একটি শব্দ-স্কোরিং সিস্টেম তৈরি করতে বলেছিলেন। R1 সংক্ষেপে কাজটি বিবেচনা করে এবং তাৎক্ষণিকভাবে দুটি ফাইল তৈরি করে - একটি কোডের জন্য এবং অন্যটি কাজের পরীক্ষার জন্য - যা প্রথম প্রচেষ্টায় ত্রুটিহীনভাবে চলে।

পূর্বে, o3 ছিল একমাত্র মডেল যা এই কাজটি সম্পন্ন করতে সক্ষম ছিল। এখন, R1 নিঃসন্দেহে এই কাজের জন্য সেরা মডেল।
মনে রাখবেন যে R1 এর কর্মক্ষমতা এত অসাধারণ কারণ এটি যে দুটি ফাইল ফেরত দেয় তা প্রথম চেষ্টাতেই ত্রুটিহীনভাবে চলে, কোনও সম্পাদনা বা পুনরায় চেষ্টা ছাড়াই, যা অত্যন্ত বিরল।
পূর্বে, বেশিরভাগ মডেল হয় প্রান্তিক ক্ষেত্রে বন্ধ হয়ে যেত, সমাধানটি অতিরিক্ত জটিল হত, অথবা পর্যাপ্ত পরীক্ষার কভারেজের অভাব ছিল।
- অনুমানের গভীরতা: একক কাজের জন্য চিন্তা করার সময় 30-60 মিনিট পর্যন্ত বাড়ানো হয়েছে, জটিল সমস্যাগুলির জন্য (যেমন, পদার্থবিদ্যার সিমুলেশন, বহু-পদক্ষেপের লজিক্যাল পাজল) সমস্যা সমাধানের ক্ষমতা উল্লেখযোগ্যভাবে উন্নত করা হয়েছে।
দীর্ঘ চিন্তাভাবনার সময় অনলাইনে সবচেয়ে আলোচিত বৈশিষ্ট্য হয়ে উঠেছে। কিছু ব্যবহারকারী জানিয়েছেন যে বাস্তব-বিশ্বের পরীক্ষায় R1 এর চিন্তাভাবনার সময় 25 মিনিট ছাড়িয়ে গেছে।

উপরন্তু, এটিই একমাত্র মডেল বলে মনে হচ্ছে যা ধারাবাহিকভাবে "৯.৯ বিয়োগ ৯.১১ কত?" এর সঠিক উত্তর দিতে সক্ষম।


DeepSeek-R1-0528 চমৎকার কর্মক্ষমতা অর্জন করেছে সমস্ত মূল্যায়ন ডেটাসেটে
R1 এর পূর্ববর্তী সংস্করণের তুলনায়, নতুন মডেলটি জটিল যুক্তির কাজে উল্লেখযোগ্য উন্নতি দেখায়। উদাহরণস্বরূপ, AIME 2025 পরীক্ষায়, নতুন মডেলের নির্ভুলতার হার 70% থেকে 87.5%-তে বৃদ্ধি পেয়েছে।
এই উন্নতি মডেলটিতে যুক্তির গভীরতা বৃদ্ধির কারণে: AIME 2025 পরীক্ষা সেটে, পুরানো মডেলটি প্রতি প্রশ্নে গড়ে 12,000 টোকেন ব্যবহার করেছে, যেখানে নতুন মডেলটি প্রতি প্রশ্নে গড়ে 23,000 টোকেন ব্যবহার করেছে, যা সমস্যা সমাধান প্রক্রিয়ায় আরও বিশদ এবং গভীর চিন্তাভাবনার ইঙ্গিত দেয়।
অতিরিক্তভাবে, deepseek টিম DeepSeek-R1-0528 থেকে যুক্তি শৃঙ্খলটি ডিস্টিল করেছে এবং Qwen3-8B বেসকে সূক্ষ্মভাবে সুরক্ষিত করেছে, যার ফলে DeepSeek-R1-0528-Qwen3-8B তৈরি হয়েছে।
এই 8B মডেলটি AIME 2024 গণিত পরীক্ষায় DeepSeek-R1-0528 এর পরে দ্বিতীয় স্থান অর্জন করেছে, Qwen3-8B (+10.0%) কে ছাড়িয়ে গেছে এবং Qwen3-235B এর সাথে মিলেছে।
DeepSeek-R1-0528 এর যুক্তিগত শৃঙ্খলগুলি যুক্তিগত মডেলগুলির উপর একাডেমিক গবেষণা এবং ক্ষুদ্র-স্কেল মডেলগুলির শিল্প উন্নয়নের জন্য গুরুত্বপূর্ণ প্রভাব ফেলবে।
কিছু নেটিজেন DeepSeek-R1 কে o3 এর মতো যুক্তির শৃঙ্খল সংশোধন করতে এবং ক্লডের মতো সৃজনশীলভাবে বিশ্ব তৈরি করতে সক্ষম হওয়ার জন্য প্রশংসা করেছেন।

এটা মনে রাখা গুরুত্বপূর্ণ যে DeepSeek একটি ওপেন-সোর্স মডেল, যা ওপেন-সোর্স মডেলগুলির জন্য একটি বড় বিজয়।

DeepSeek-R1-0528-Qwen3-8B এর মতো ওপেন-সোর্স মডেলের জন্য AIME 2024 তুলনা ফলাফল
অন্যান্য ক্ষমতা আপডেট
- হ্যালুসিনেশনের উন্নতি: DeepSeek R1-এর নতুন সংস্করণটি "হ্যালুসিনেশন" সমস্যাগুলির জন্য কর্মক্ষমতা অপ্টিমাইজ করেছে। পূর্ববর্তী সংস্করণের তুলনায়, আপডেট করা মডেলটি পুনর্লিখন এবং পালিশ, সারসংক্ষেপ এবং পড়ার বোধগম্যতার মতো কাজে হ্যালুসিনেশনের হারে 45-50% হ্রাস অর্জন করে, যা আরও সঠিক এবং নির্ভরযোগ্য ফলাফল প্রদান করে।
- সৃজনশীল লেখা: পূর্ববর্তী R1 সংস্করণের উপর ভিত্তি করে, আপডেট করা R1 মডেলটি প্রবন্ধ, উপন্যাস এবং গদ্য লেখার শৈলীর জন্য আরও অপ্টিমাইজ করা হয়েছে, যা এটিকে দীর্ঘ, আরও কাঠামোগতভাবে সম্পূর্ণ রচনা তৈরি করতে সক্ষম করে এবং একই সাথে একটি লেখার শৈলী উপস্থাপন করে যা মানুষের পছন্দের সাথে আরও সামঞ্জস্যপূর্ণ।
- টুল ইনভোকেশন: DeepSeek-R1-0528 টুল ইনভোকেশন সমর্থন করে (চিন্তাভাবনায় টুল ইনভোকেশন সমর্থিত নয়)। বর্তমান মডেলের টাউ-বেঞ্চ মূল্যায়ন স্কোর হল বিমান সংস্থার জন্য 53.5% এবং খুচরা বিক্রয়ের জন্য 63.9%, যা OpenAI o1-high এর সাথে তুলনীয়, কিন্তু এখনও o3-High এবং Claude 4 Sonnet এর চেয়ে পিছিয়ে।
উদাহরণটি LobeChat এর মাধ্যমে DeepSeek-R1-0528 এর টুল ইনভোকেশন ক্ষমতা ব্যবহার করে তৈরি করা একটি ওয়েব নিবন্ধের সারাংশ দেখায়। এছাড়াও, DeepSeek-R1-0528 ফ্রন্ট-এন্ড কোড জেনারেশন এবং রোল-প্লেয়িংয়ের মতো ক্ষেত্রগুলিতে আপডেট এবং উন্নত করা হয়েছে।

উদাহরণটি একটি ওয়েব পৃষ্ঠায় DeepSeek-R1-0528 ব্যবহার করে HTML/CSS/JavaScript ব্যবহার করে তৈরি একটি আধুনিক এবং ন্যূনতম ওয়ার্ড কার্ড অ্যাপ্লিকেশন দেখায়।

DeepSeek-R1-0528 আপডেটের মূল হাইলাইটস
- গুগল মডেলের সাথে তুলনীয় গভীর যুক্তি ক্ষমতা
- টেক্সট জেনারেশন অপ্টিমাইজেশন: আরও স্বাভাবিক এবং আরও ভালোভাবে ফর্ম্যাট করা
- অনন্য যুক্তি শৈলী: কেবল দ্রুত নয় বরং আরও কঠোরও
- দীর্ঘমেয়াদী চিন্তাভাবনার জন্য সমর্থন: একক-কাজ প্রক্রিয়াকরণের সময় 30-60 মিনিটে পৌঁছাতে পারে

DeepSeek-R1 এর নতুন সংস্করণের ক্ষমতাগুলি আমরা পরীক্ষা করেছি। যদিও এটি একটি "ছোট সংস্করণ" আপডেট, এর কর্মক্ষমতা 'অতিরিক্ত'ভাবে উন্নত করা হয়েছে।
বিশেষ করে প্রোগ্রামিং ক্ষমতার দিক থেকে, মনে হচ্ছে এটি Claude 4 এবং Gemini 2.5 Pro কে ছাড়িয়ে গেছে অথবা তার সমতুল্য। সমস্ত প্রম্পট "এক-শট", কোনও পরিবর্তনের প্রয়োজন নেই! এবং এটি সরাসরি একটি ওয়েব ব্রাউজারে চালানো যেতে পারে যাতে এর ক্ষমতা প্রদর্শন করা যায়।
আপনি স্পষ্টভাবে অনুভব করতে পারেন যে নতুন DeepSeek-R1 সংস্করণের চিন্তাভাবনা প্রক্রিয়া আরও স্থিতিশীল।
আপনি deepseek-R1 কে যেকোনো প্রশ্ন জিজ্ঞাসা করতে পারেন যার উত্তর জানতে চান, এমনকি যদি আপনার প্রশ্নটি কিছুটা অর্থহীন হয়, তবুও এটি সাবধানে চিন্তা করবে এবং যুক্তি সংগঠিত করবে। আমরা আপনাকে সর্বশেষ deepseek-R1 মডেলটি চেষ্টা করার পরামর্শ দিচ্ছি।
API আপডেট তথ্য
API আপডেট করা হয়েছে, কিন্তু ইন্টারফেস এবং কলিং পদ্ধতি অপরিবর্তিত রয়েছে। নতুন R1 API এখনও মডেলের চিন্তাভাবনা প্রক্রিয়া দেখার সুবিধা প্রদান করে এবং এখন ফাংশন কলিং এবং JsonOutput সমর্থন করে।
deepseek টিম নতুন R1 API-তে max_tokens প্যারামিটারের অর্থ সামঞ্জস্য করেছে: max_tokens এখন মডেলের একক আউটপুটের মোট দৈর্ঘ্য (চিন্তা প্রক্রিয়া সহ) সীমাবদ্ধ করে, যার ডিফল্ট মান 32K এবং সর্বাধিক 64K। API ব্যবহারকারীদের আউটপুট অকাল কেটে যাওয়া রোধ করতে max_tokens প্যারামিটারটি অবিলম্বে সামঞ্জস্য করার পরামর্শ দেওয়া হচ্ছে।
R1 মডেল ব্যবহারের বিস্তারিত নির্দেশাবলীর জন্য, অনুগ্রহ করে দেখুন deepseek R1 API নির্দেশিকা:
এই R1 আপডেটের পরে, অফিসিয়াল ওয়েবসাইট, মিনি প্রোগ্রাম, অ্যাপ এবং API-তে মডেলের প্রসঙ্গ দৈর্ঘ্য 64K থাকবে। ব্যবহারকারীদের যদি আরও দীর্ঘ প্রসঙ্গ দৈর্ঘ্যের প্রয়োজন হয়, তাহলে তারা অন্যান্য তৃতীয়-পক্ষ প্ল্যাটফর্মের মাধ্যমে 128K প্রসঙ্গ দৈর্ঘ্যের R1-0528 মডেলের ওপেন-সোর্স সংস্করণটি কল করতে পারবেন।
ওপেন সোর্স
DeepSeek-R1-0528 পূর্ববর্তী DeepSeek-R1 এর মতো একই বেস মডেল ব্যবহার করে, শুধুমাত্র প্রশিক্ষণ-পরবর্তী পদ্ধতিতে উন্নতি করা হয়েছে।
ব্যক্তিগতভাবে স্থাপন করার সময়, শুধুমাত্র চেকপয়েন্ট এবং tokenizer_config.json (টুল কল-সম্পর্কিত পরিবর্তন) আপডেট করতে হবে। মডেল প্যারামিটারগুলি হল 685B (যার মধ্যে 14B MTP স্তরের জন্য), এবং ওপেন-সোর্স সংস্করণটির প্রসঙ্গ দৈর্ঘ্য 128K (ওয়েব, অ্যাপ এবং API এর জন্য 64K প্রসঙ্গ দৈর্ঘ্য প্রদান করা হয়েছে)।