Bu DeepSeek R1 modeli küçük bir sürüm yükseltmesinden geçti, mevcut sürüm DeepSeek-R1-0528. DeepSeek web sayfasına veya uygulamasına girdiğinizde, en son sürümü deneyimlemek için diyalog arayüzünde “Derin Düşünme” özelliğini etkinleştirin.
DeepSeek-R1-0528 model ağırlıkları HuggingFace'e yüklendi

Son dört ayda, DeepSeek-R1, grafiklerin dışında kodlama yetenekleri ve önemli ölçüde daha uzun düşünme süreleri elde ederek süper bir evrim geçirdi. DeepSeek-R2 Herkesin beklediği gibi DeepSeek-R1-0528 modelinde önemli iyileştirmeler var.
Raporlara göre yeni model DeepSeek-V3-0324 (660B parametreleriyle) üzerinde eğitildi.
Öncelikle bu sürümdeki önemli güncellemelere bir tablo aracılığıyla hızlıca bir göz atalım
Yetenek Boyutu | deepseek-R1 | Derin arama-R1-0528 |
Maksimum Bağlam | 64k(API) | 128K(API)daha da fazla |
Kod Üretimi | liveCodeBench yakın openai O1 | O3'e yakın |
Muhakeme Derinliği | Karmaşık sorular parçalara ayrılmış komutlar gerektirir. | 30-60 dakikalık derin düşünmeyi destekler |
Dil Doğallığı | oldukça uzun | Kompakt yapı, O3'e benzer yazım |
Kullanım Maliyeti | Açık kaynak veya API$0.5/M | Açık kaynak veya API$0.5/M |
Gelişmiş derin düşünme yetenekleri
DeepSeek-R1-0528, Aralık 2024'te piyasaya sürülen DeepSeek V3 Base modelini temel olarak kullanmaya devam ediyor, ancak eğitim sonrası daha fazla işlem gücü harcanarak modelin düşünme derinliği ve muhakeme yetenekleri önemli ölçüde artırıldı.
Güncellenen R1 modeli, matematik, programlama ve genel mantık dahil olmak üzere birden fazla kıyaslama değerlendirmesinde tüm yerli modeller arasında en üst düzey performansı elde etti ve genel performansı artık o3 ve Gemini-2.5-Pro gibi diğer uluslararası üst düzey modellerle aynı seviyeye geldi.
- Matematik ve programlama yetenekleri: AIME 2025 matematik yarışmasında doğruluk, önceki versiyondaki 70%'den 87.5%'ye çıkarıldı; LiveCodeBench kıyaslama testinde kod üretme yetenekleri, OpenAI'nin o3-high modeliyle hemen hemen aynı seviyede olup, pass@1 puanı 73.3% olarak elde edildi.
Kullanıcı testleri yeni DeepSeek-R1'in programlamada gerçekten şaşırtıcı olduğunu gösteriyor!
Yapay zeka uzmanı “karminski-dentist” aynı komut istemini kullanarak DeepSeek-R1-0528 ve Claude 4 Sonnet'i test etti ve şunları buldu:

İster duvardaki ışığın dağınık yansıması, ister bir topun çarpma sonrasındaki hareket yönü, isterse bir kontrol panelinin estetik görünümü olsun, R1 rakiplerinden açıkça daha iyi performans gösteriyor.
Kullanıcı Haider. modelin bir kelime puanlama sistemi oluşturmasını sağladı. R1 görevi kısaca değerlendirdi ve hemen iki dosya üretti; biri kod için, diğeri iş testi için; bunlar ilk denemede kusursuz bir şekilde çalıştı.

Daha önce, o3 bu görevi tamamlayabilen tek modeldi. Şimdi, R1 şüphesiz bu görev için en iyi modeldir.
R1'in performansının bu kadar dikkat çekici olmasının sebebi, döndürdüğü iki dosyanın da herhangi bir düzenleme veya yeniden denemeye gerek kalmadan ilk denemede kusursuz bir şekilde çalışmasıdır ki bu da son derece nadir görülen bir durumdur.
Daha önce, modellerin çoğu ya uç durumlarda sonlanıyordu, çözümü aşırı karmaşık hale getiriyordu ya da yeterli test kapsamından yoksundu.
- Çıkarım derinliği: Tek görevli düşünme süresi 30-60 dakikaya çıkarıldı ve karmaşık sorunlar (örneğin fizik simülasyonları, çok adımlı mantıksal bulmacalar) için önemli ölçüde geliştirilmiş problem çözme yetenekleri sağlandı.
Daha uzun düşünme süresi çevrimiçi olarak en çok tartışılan özellik haline geldi. Bazı kullanıcılar R1'in düşünme süresinin gerçek dünya testlerinde 25 dakikayı aştığını bildirdi.

Ayrıca, bu modelin "9,9 eksi 9,11 kaç eder?" sorusuna tutarlı bir şekilde doğru cevap verebilen tek model olduğu anlaşılıyor.


DeepSeek-R1-0528 mükemmel performans elde etti tüm değerlendirme veri kümelerinde
Önceki R1 sürümüyle karşılaştırıldığında, yeni model karmaşık muhakeme görevlerinde önemli iyileştirmeler gösteriyor. Örneğin, AIME 2025 testinde, yeni modelin doğruluk oranı 70%'den 87.5%'ye yükseldi.
Bu iyileştirme, modeldeki muhakeme derinliğinin artmasından kaynaklanmaktadır: AIME 2025 test setinde, eski model soru başına ortalama 12 bin token kullanırken, yeni model soru başına ortalama 23 bin token kullanmıştır; bu da problem çözme sürecinde daha detaylı ve derinlemesine düşünmeyi göstermektedir.
Ayrıca, deepseek ekibi DeepSeek-R1-0528'den akıl yürütme zincirini damıttı ve Qwen3-8B Tabanını ince ayarlayarak DeepSeek-R1-0528-Qwen3-8B'yi ortaya çıkardı.
Bu 8B modeli AIME 2024 matematik testinde DeepSeek-R1-0528'in ardından ikinci sırada yer aldı ve Qwen3-8B'yi (+10.0%) geride bırakarak Qwen3-235B ile eşleşti.
DeepSeek-R1-0528'in akıl yürütme zincirleri, akıl yürütme modelleri üzerine akademik araştırmalar ve küçük ölçekli modellerin endüstriyel gelişimi için önemli çıkarımlar taşıyacaktır.
Bazı internet kullanıcıları DeepSeek-R1'i o3 gibi mantık zincirlerini düzeltebildiği ve Claude gibi yaratıcı dünyalar inşa edebildiği için övdü.

DeepSeek'nin açık kaynaklı bir model olduğunu ve bu nedenle açık kaynaklı modeller açısından büyük bir zafer olduğunu belirtmek önemlidir.

DeepSeek-R1-0528-Qwen3-8B gibi açık kaynaklı modeller için AIME 2024 karşılaştırma sonuçları
Diğer yetenek güncellemeleri
- Halüsinasyon iyileştirmesi: DeepSeek R1'nin yeni versiyonu "halüsinasyon" sorunları için performansı optimize etti. Önceki versiyona kıyasla, güncellenen model yeniden yazma ve cilalama, özetleme ve okuduğunu anlama gibi görevlerde halüsinasyon oranlarında 45–50% azalma sağlayarak daha doğru ve güvenilir sonuçlar sunuyor.
- Yaratıcı Yazarlık: Önceki R1 versiyonuna dayanan güncellenmiş R1 modeli, deneme, roman ve düzyazı yazım stilleri için daha da optimize edilerek, insan tercihleriyle daha uyumlu bir yazım stili sunarken daha uzun, yapısal olarak daha eksiksiz eserler üretilmesine olanak sağlıyor.
- Araç çağrısı: DeepSeek-R1-0528 araç çağrısını destekler (araç çağrısı düşüncede desteklenmez). Mevcut modelin Tau-Bench değerlendirme puanları havayolu için 53.5% ve perakende için 63.9%'dir, OpenAI o1-high ile karşılaştırılabilir, ancak yine de o3-High ve Claude 4 Sonnet'in gerisindedir.
Örnek, LobeChat aracılığıyla DeepSeek-R1-0528'in araç çağırma yeteneği kullanılarak oluşturulan bir web makalesi özetini gösterir. Ek olarak, DeepSeek-R1-0528 ön uç kod üretimi ve rol yapma gibi alanlarda güncellendi ve iyileştirildi.

Örnekte, bir web sayfasında DeepSeek-R1-0528'i çağırarak HTML/CSS/JavaScript kullanılarak geliştirilen modern ve minimalist bir kelime kartı uygulaması gösterilmektedir.

DeepSeek-R1-0528 güncellemesinin önemli noktaları
- Google modellerine benzer derin muhakeme yetenekleri
- Metin oluşturma optimizasyonu: daha doğal ve daha iyi biçimlendirilmiş
- Benzersiz akıl yürütme tarzı: sadece daha hızlı değil, aynı zamanda daha titiz
- Uzun vadeli düşünmeyi destekler: tek bir görevin işlenme süresi 30-60 dakikaya ulaşabilir

DeepSeek-R1'in yeni versiyonunun yetenekleri tarafımızca test edildi. "Küçük versiyon" güncellemesi olmasına rağmen, performansı 'destansı' bir şekilde geliştirildi.
Özellikle programlama yetenekleri açısından, Claude 4 ve Gemini 2.5 Pro'yu geride bırakmış veya onlarla aynı seviyedeymiş gibi hissettiriyor. Tüm istemler "tek seferlik"tir ve hiçbir değişiklik gerektirmez! Ve yeteneklerini göstermek için doğrudan bir web tarayıcısında çalıştırılabilir.
Yeni DeepSeek-R1 versiyonunun düşünce yapısının daha stabil olduğunu açıkça hissedebiliyorsunuz.
deepseek-R1'ye cevabını bilmek istediğiniz herhangi bir soru sorabilirsiniz, sorunuz biraz saçma olsa bile, yine de dikkatlice düşünecek ve mantığı organize edecektir. En son deepseek-R1 modelini denemenizi şiddetle tavsiye ederiz.
API güncelleme bilgisi
API güncellendi, ancak arayüz ve çağrı yöntemleri değişmeden kaldı. Yeni R1 API hala modelin düşünme sürecini görüntülemeyi destekliyor ve artık İşlev Çağrısı ve JsonOutput'u da destekliyor.
deepseek ekibi, yeni R1 API'sindeki max_tokens parametresinin anlamını ayarladı: max_tokens artık modelin tek çıktısının toplam uzunluğunu (düşünme süreci dahil) varsayılan 32K ve maksimum 64K değeriyle sınırlandırıyor. API kullanıcılarının, çıktının erken kesilmesini önlemek için max_tokens parametresini derhal ayarlamaları önerilir.
R1 modelinin kullanımıyla ilgili ayrıntılı talimatlar için lütfen şuraya bakın: deepseek R1 API kılavuzu:
Bu R1 güncellemesinden sonra, resmi web sitesindeki, mini programdaki, uygulamadaki ve API'deki model bağlam uzunluğu 64K olarak kalacaktır. Kullanıcılar daha uzun bir bağlam uzunluğuna ihtiyaç duyarsa, 128K bağlam uzunluğuna sahip R1-0528 modelinin açık kaynaklı sürümünü diğer üçüncü taraf platformlar aracılığıyla çağırabilirler.
Açık kaynak
DeepSeek-R1-0528, önceki DeepSeek-R1 ile aynı temel modeli kullanıyor, sadece eğitim sonrası yöntemlerde iyileştirmeler yapılmış.
Özel olarak dağıtırken, yalnızca kontrol noktası ve tokenizer_config.json (araç çağrılarıyla ilgili değişiklikler) güncellenmelidir. Model parametreleri 685B'dir (bunun 14B'ı MTP katmanı içindir) ve açık kaynaklı sürümün bağlam uzunluğu 128K'dır (web, uygulama ve API için 64K bağlam uzunluğu sağlanır).