Blog

  • DeepSeek udostępnił swój kod źródłowy i szczegółowe wyjaśnienie FlashMLA
    W zeszłym tygodniu DeepSeek ogłosiło, że w przyszłym tygodniu udostępni pięć projektów jako open source: Internauci powiedzieli: „Tym razem OpenAI naprawdę tu jest”. Właśnie pojawił się pierwszy projekt typu open source, związany z przyspieszeniem wnioskowania, FlashMLA: Adres projektu typu open source: DeepSeek FlashMLA Jest on projektem typu open source od dwóch godzin, a Github ma już ponad 2,7 tys. gwiazdek: The…
  • Czym jest FlashMLA? Kompleksowy przewodnik po jego wpływie na jądra dekodujące AI
    FlashMLA szybko zyskało uwagę w świecie sztucznej inteligencji, szczególnie w obszarze dużych modeli językowych (LLM). To innowacyjne narzędzie, opracowane przez DeepSeek, służy jako zoptymalizowane jądro dekodowania zaprojektowane dla procesorów graficznych Hopper — wysokowydajnych układów powszechnie używanych w obliczeniach AI. FlashMLA koncentruje się na wydajnym przetwarzaniu sekwencji o zmiennej długości, co czyni je szczególnie dobrze przystosowanym…
  • Qwen2.5-max kontra DeepSeek R1: Głębokie porównanie modeli: pełna analiza scenariuszy zastosowań
    Wprowadzenie Obecnie duże modele językowe (LLM) odgrywają kluczową rolę. Na początku 2025 r., gdy konkurencja o AI się zaostrzyła, Alibaba wprowadziła na rynek nowy model AI Qwen2.5-max, a DeepSeek, firma z Hangzhou w Chinach, wprowadziła na rynek model R1, który stanowi szczyt technologii LLM. Deepseek R1 to model AI typu open source, który przyciągnął…
  • Jest blisko DeepSeek-R1-32B i miażdży s1 Fei-Fei Li! UC Berkeley i inne otwarte nowe modele wnioskowania SOTA
    Model wnioskowania 32B wykorzystuje tylko 1/8 danych i jest na równi z DeepSeek-R1 tej samej wielkości! Właśnie teraz instytucje takie jak Stanford, UC Berkeley i University of Washington wspólnie wydały model wnioskowania na poziomie SOTA, OpenThinker-32B, a także udostępniły jako open source do 114 tys. danych treningowych. Strona główna projektu OpenThinker: OpenThinker Hugging Face:…

Utwórz darmowe konto już dziś!