Vorige week kondigde DeepSeek aan dat het volgende week vijf projecten open source zou maken: Netizens zeiden: "Deze keer is OpenAI er echt." Zojuist is het eerste open source-project uitgekomen, gerelateerd aan inferentieversnelling, FlashMLA: Adres van het open source-project: DeepSeek FlashMLA Het is nu twee uur open source en Github heeft al meer dan 2,7k sterren: De…
FlashMLA heeft snel aandacht gekregen in de wereld van kunstmatige intelligentie, met name op het gebied van grote taalmodellen (LLM's). Deze innovatieve tool, ontwikkeld door DeepSeek, dient als een geoptimaliseerde decoderingskernel die is ontworpen voor Hopper GPU's: high-performance chips die veel worden gebruikt in AI-berekeningen. FlashMLA richt zich op de efficiënte verwerking van sequenties met variabele lengte, waardoor het bijzonder geschikt is voor…
Inleiding Tegenwoordig spelen grote taalmodellen (LLM's) een cruciale rol. Begin 2025, toen de concurrentie voor AI toenam, lanceerde Alibaba het nieuwe Qwen2.5-max AI-model en DeepSeek, een bedrijf uit Hangzhou, China, lanceerde het R1-model, dat het hoogtepunt van LLM-technologie vertegenwoordigt. Deepseek R1 is een open source AI-model dat…
Het 32B-inferentiemodel gebruikt slechts 1/8 van de data en is gelijk aan DeepSeek-R1 van dezelfde grootte! Zojuist hebben instituten als Stanford, UC Berkeley en de University of Washington gezamenlijk een SOTA-niveau-inferentiemodel uitgebracht, OpenThinker-32B, en hebben ze ook tot 114k trainingsdata open source gemaakt. OpenThinker Project homepage: OpenThinker Hugging Face:…