Letzte Woche kündigte DeepSeek an, nächste Woche fünf Projekte als Open Source freizugeben: Internetnutzer sagten: „Dieses Mal ist OpenAI wirklich da.“ Gerade eben kam das erste Open-Source-Projekt, das sich auf die Inferenzbeschleunigung bezieht, FlashMLA: Adresse des Open-Source-Projekts: DeepSeek FlashMLA Es ist seit zwei Stunden Open Source und Github hat bereits über 2,7.000 Sterne: Das…
FlashMLA hat in der Welt der künstlichen Intelligenz, insbesondere im Bereich der großen Sprachmodelle (LLMs), schnell Aufmerksamkeit erlangt. Dieses innovative Tool, das von DeepSeek entwickelt wurde, dient als optimierter Dekodierungskernel für Hopper-GPUs – Hochleistungschips, die häufig in KI-Berechnungen verwendet werden. FlashMLA konzentriert sich auf die effiziente Verarbeitung von Sequenzen variabler Länge und eignet sich daher besonders gut für…
Einführung Heute spielen große Sprachmodelle (LLMs) eine entscheidende Rolle. Anfang 2025, als der Wettbewerb um KI intensiver wurde, brachte Alibaba das neue KI-Modell Qwen2.5-max auf den Markt, und DeepSeek, ein Unternehmen aus Hangzhou, China, brachte das Modell R1 auf den Markt, das den Höhepunkt der LLM-Technologie darstellt. Deepseek R1 ist ein Open-Source-KI-Modell, das viele Aufmerksamkeit auf sich gezogen hat…
Das 32B-Inferenzmodell verwendet nur 1/8 der Daten und ist mit dem gleich großen DeepSeek-R1 gleichauf! Gerade haben Institutionen wie Stanford, UC Berkeley und die University of Washington gemeinsam ein Inferenzmodell auf SOTA-Ebene, OpenThinker-32B, veröffentlicht und außerdem bis zu 114.000 Trainingsdaten als Open Source zur Verfügung gestellt. Homepage des OpenThinker-Projekts: OpenThinker Hugging Face:…