Blogi

  • DeepSeek on välja andnud oma lähtekoodi, FlashMLA üksikasjaliku selgituse
    Eelmisel nädalal teatas DeepSeek, et avab järgmisel nädalal viis projekti: Netizens ütles: "Seekord on OpenAI tõesti siin." Just nüüd tuli esimene avatud lähtekoodiga projekt, mis on seotud järelduste kiirendamisega, FlashMLA: avatud lähtekoodiga projekti aadress: DeepSeek FlashMLA See on olnud avatud lähtekoodiga kaks tundi ja Githubil on juba 2,7 000 tärni: The…
  • Mis on FlashMLA? Põhjalik juhend selle mõju kohta AI dekodeerimise tuumadele
    FlashMLA on kiiresti pälvinud tähelepanu tehisintellekti maailmas, eriti suurte keelemudelite (LLM) valdkonnas. See uuenduslik tööriist, mille on välja töötanud DeepSeek, toimib optimeeritud dekodeerimistuumana, mis on loodud Hopperi GPU-de jaoks – suure jõudlusega kiibid, mida tavaliselt kasutatakse AI-arvutustes. FlashMLA keskendub muutuva pikkusega jadade tõhusale töötlemisele, mistõttu sobib see eriti hästi…
  • Qwen2.5-max vs DeepSeek R1: mudelite põhjalik võrdlus: rakendusstsenaariumide täielik analüüs
    Sissejuhatus Tänapäeval on suurtel keelemudelitel (LLM) oluline roll. 2025. aasta alguses, kui konkurents tehisintellekti pärast teravnes, tõi Alibaba turule uue Qwen2.5-max AI mudeli ja Hiina Hangzhou ettevõte DeepSeek tõi turule mudeli R1, mis esindab LLM-tehnoloogia tippu. Deepseek R1 on avatud lähtekoodiga AI mudel, mis on meelitanud…
  • See on DeepSeek-R1-32B lähedal ja purustab Fei-Fei Li s1! UC Berkeley ja muud avatud lähtekoodiga uued SOTA järeldusmudelid
    32B järeldusmudel kasutab ainult 1/8 andmetest ja on seotud sama suurusega DeepSeek-R1-ga! Just praegu on sellised asutused nagu Stanford, UC Berkeley ja Washingtoni ülikool ühiselt välja andnud SOTA-taseme järeldusmudeli OpenThinker-32B ja on ka avatud lähtekoodiga kuni 114 000 koolitusandmeid. OpenThinker Projecti koduleht: OpenThinkeri kallistav nägu:…

Loo oma tasuta konto juba täna!