Blog

  • Der Showdown der vier Top-Modelle! Ein Test zeigt die Leistungsfähigkeit des Deepseek R1
    Deepseek-R1 0528 wurde in den letzten Tagen offiziell als Open Source veröffentlicht. Auf LiveCodeBench liegt seine Leistung fast auf dem Niveau von OpenAIs o3 (hoch); im mehrsprachigen Benchmarktest von Aider kann es sich mit Claude Opus messen. Nach der Veröffentlichung auf der offiziellen Website haben wir seine Front-End-Funktionen kurz getestet und fanden sie außergewöhnlich…
  • DeepSeek-R1-0528 Update: Tiefer denken, stärker argumentieren
    Das Modell DeepSeek R1 wurde einem kleinen Versionsupgrade unterzogen und ist aktuell DeepSeek-R1-0528. Aktivieren Sie beim Aufrufen der DeepSeek-Webseite oder -App die Funktion „Deep Thinking“ in der Dialogoberfläche, um die neueste Version zu erleben. Die Gewichte des Modells DeepSeek-R1-0528 wurden auf HuggingFace hochgeladen. In den letzten vier Monaten wurde DeepSeek-R1…
  • DeepSeek hat seinen Quellcode veröffentlicht, detaillierte Erklärung von FlashMLA
    Letzte Woche kündigte DeepSeek an, nächste Woche fünf Projekte als Open Source freizugeben: Internetnutzer sagten: „Dieses Mal ist OpenAI wirklich da.“ Gerade eben kam das erste Open-Source-Projekt, das sich auf die Inferenzbeschleunigung bezieht, FlashMLA: Adresse des Open-Source-Projekts: DeepSeek FlashMLA Es ist seit zwei Stunden Open Source und Github hat bereits über 2,7.000 Sterne: Das…
  • Was ist FlashMLA? Ein umfassender Leitfaden zu seinen Auswirkungen auf KI-Dekodierungskernel
    FlashMLA hat in der Welt der künstlichen Intelligenz, insbesondere im Bereich der großen Sprachmodelle (LLMs), schnell Aufmerksamkeit erlangt. Dieses innovative Tool, das von DeepSeek entwickelt wurde, dient als optimierter Dekodierungskernel für Hopper-GPUs – Hochleistungschips, die häufig in KI-Berechnungen verwendet werden. FlashMLA konzentriert sich auf die effiziente Verarbeitung von Sequenzen variabler Länge und eignet sich daher besonders gut für…

Erstellen Sie noch heute Ihr kostenloses Konto!