Blog

  • DeepSeek je izdal svojo izvorno kodo, podrobno razlago FlashMLA
    Prejšnji teden je DeepSeek napovedal, da bo naslednji teden odprtokodno pet projektov: uporabniki interneta so rekli: "Tokrat je OpenAI res tukaj." Pravkar je prišel prvi odprtokodni projekt, povezan s pospeševanjem sklepanja, FlashMLA: naslov odprtokodnega projekta: DeepSeek FlashMLA Odprtokodni je že dve uri, Github pa ima že 2,7k+ zvezdic: The…
  • Kaj je FlashMLA? Obsežen vodnik o njegovem vplivu na jedra za dekodiranje AI
    FlashMLA je hitro pridobil pozornost v svetu umetne inteligence, zlasti na področju velikih jezikovnih modelov (LLM). To inovativno orodje, ki ga je razvil DeepSeek, služi kot optimizirano jedro za dekodiranje, zasnovano za Hopper GPE-je – visoko zmogljive čipe, ki se običajno uporabljajo v izračunih z umetno inteligenco. FlashMLA se osredotoča na učinkovito obdelavo zaporedij spremenljive dolžine, zaradi česar je še posebej primeren za ...
  • Qwen2.5-max proti DeepSeek R1: Poglobljena primerjava modelov: popolna analiza aplikacijskih scenarijev
    Uvod Danes imajo veliki jezikovni modeli (LLM) ključno vlogo. V začetku leta 2025, ko se je konkurenca za AI zaostrila, je Alibaba lansirala nov model AI Qwen2.5-max, DeepSeek, podjetje iz Hangzhouja na Kitajskem, pa model R1, ki predstavlja vrhunec tehnologije LLM. Deepseek R1 je odprtokodni model AI, ki je pritegnil ...
  • Je blizu DeepSeek-R1-32B in zdrobi s1 Fei-Fei Li! UC Berkeley in drugi odprtokodni novi modeli sklepanja SOTA
    Inferenčni model 32B uporablja le 1/8 podatkov in je povezan z DeepSeek-R1 enake velikosti! Pravkar so ustanove, kot so Stanford, UC Berkeley in Univerza v Washingtonu, skupaj izdale model sklepanja na ravni SOTA, OpenThinker-32B, in prav tako odprle do 114k podatkov o usposabljanju. Domača stran projekta OpenThinker: OpenThinker Hugging Face:…

Ustvarite svoj brezplačen račun še danes!