Blog

  • DeepSeek, FlashMLA'nın kaynak kodunu ve ayrıntılı açıklamasını yayınladı
    Geçtiğimiz hafta, DeepSeek önümüzdeki hafta beş projeyi açık kaynaklı hale getireceğini duyurdu: İnternet kullanıcıları, "Bu sefer, OpenAI gerçekten burada." dedi. Az önce, çıkarım hızlandırma ile ilgili ilk açık kaynaklı proje geldi, FlashMLA: Açık kaynaklı proje adresi: DeepSeek FlashMLA İki saattir açık kaynaklı ve Github'da halihazırda 2.7k+ yıldız var: The…
  • FlashMLA Nedir? AI Kod Çözme Çekirdekleri Üzerindeki Etkisine İlişkin Kapsamlı Bir Kılavuz
    FlashMLA, yapay zeka dünyasında, özellikle büyük dil modelleri (LLM) alanında hızla ilgi gördü. DeepSeek tarafından geliştirilen bu yenilikçi araç, AI hesaplamalarında yaygın olarak kullanılan yüksek performanslı yongalar olan Hopper GPU'lar için tasarlanmış optimize edilmiş bir kod çözme çekirdeği olarak hizmet eder. FlashMLA, değişken uzunluklu dizilerin verimli bir şekilde işlenmesine odaklanır ve bu da onu özellikle uygun hale getirir…
  • Qwen2.5-max ve DeepSeek R1: Modellerin derinlemesine karşılaştırılması: Uygulama senaryolarının tam analizi
    Giriş Günümüzde büyük dil modelleri (LLM'ler) önemli bir rol oynamaktadır. 2025'in başlarında, AI için rekabet yoğunlaştıkça, Alibaba yeni Qwen2.5-max AI modelini piyasaya sürdü ve Çin'in Hangzhou kentinden bir şirket olan DeepSeek, LLM teknolojisinin zirvesini temsil eden R1 modelini piyasaya sürdü. Deepseek R1, ilgi çeken açık kaynaklı bir AI modelidir…
  • DeepSeek-R1-32B'ye yakındır ve Fei-Fei Li'nin s1'ini ezer! UC Berkeley ve diğer açık kaynaklı yeni SOTA çıkarım modelleri
    32B çıkarım modeli verilerin yalnızca 1/8'ini kullanır ve aynı boyuttaki DeepSeek-R1 ile eşittir! Şu anda, Stanford, UC Berkeley ve Washington Üniversitesi gibi kurumlar ortaklaşa bir SOTA düzeyinde çıkarım modeli olan OpenThinker-32B'yi yayınladılar ve ayrıca 114k'ya kadar eğitim verisini açık kaynaklı hale getirdiler. OpenThinker Projesi ana sayfası: OpenThinker Hugging Face:…

Ücretsiz hesabınızı bugün oluşturun!