Blog

  • DeepSeek zveřejnil svůj zdrojový kód, podrobné vysvětlení FlashMLA
    Minulý týden DeepSeek oznámil, že příští týden otevře pět projektů s otevřeným zdrojovým kódem: Netizens řekl: "Tentokrát je OpenAI opravdu tady." Právě teď přišel první open source projekt související s akcelerací inference, FlashMLA: Adresa open source projektu: DeepSeek FlashMLA Již dvě hodiny je open source a Github už má 2,7 000+ hvězdiček: The…
  • Co je FlashMLA? Komplexní průvodce jeho dopadem na jádra dekódování AI
    FlashMLA si rychle získal pozornost ve světě umělé inteligence, zejména v oblasti velkých jazykových modelů (LLM). Tento inovativní nástroj vyvinutý společností DeepSeek slouží jako optimalizované dekódovací jádro navržené pro GPU Hopper – vysoce výkonné čipy běžně používané ve výpočtech AI. FlashMLA se zaměřuje na efektivní zpracování sekvencí s proměnnou délkou, díky čemuž je zvláště vhodný…
  • Qwen2.5-max vs DeepSeek R1: Hluboké srovnání modelů: úplná analýza scénářů aplikací
    Úvod Dnes hrají zásadní roli velké jazykové modely (LLM). Začátkem roku 2025, kdy konkurence o AI zesílila, uvedla Alibaba na trh nový model AI Qwen2.5-max a společnost DeepSeek z Hangzhou v Číně uvedla na trh model R1, který představuje vrchol technologie LLM. Deepseek R1 je open source model umělé inteligence, který přitahuje…
  • Je blízko DeepSeek-R1-32B a drtí Fei-Fei Li's s1! UC Berkeley a další open source nové odvozené modely SOTA
    Inferenční model 32B využívá pouze 1/8 dat a je svázán s DeepSeek-R1 stejné velikosti! Právě nyní instituce jako Stanford, UC Berkeley a University of Washington společně vydaly inferenční model na úrovni SOTA, OpenThinker-32B, a také získaly open source až 114k tréninková data. Domovská stránka projektu OpenThinker: OpenThinker Hugging Face:…

Vytvořte si bezplatný účet ještě dnes!