Die Modell DeepSeek R1 wurde einem geringfügigen Versionsupgrade unterzogen. Die aktuelle Version ist DeepSeek-R1-0528. Aktivieren Sie beim Aufrufen der DeepSeek-Webseite oder -App die Funktion „Deep Thinking“ in der Dialogoberfläche, um die neueste Version zu erleben.
Die Modellgewichte DeepSeek-R1-0528 wurden auf HuggingFace hochgeladen

In den letzten vier Monaten hat der DeepSeek-R1 eine Super-Evolution durchlaufen und dabei unübertroffene Kodierfähigkeiten und deutlich längere Denkzeiten erreicht. Obwohl er vielleicht nicht der DeepSeek-R2 Wie alle erwartet haben, sind die Verbesserungen beim Modell DeepSeek-R1-0528 erheblich.
Berichten zufolge wird das neue Modell auf DeepSeek-V3-0324 (mit 660B-Parametern) trainiert.
Werfen wir zunächst einen kurzen Blick auf die wichtigsten Neuerungen in dieser Version anhand einer Tabelle
Fähigkeitsdimension | deepseek-R1 | Deepseek-R1-0528 |
Maximaler Kontext | 64k (API) | 128K (API) noch mehr |
Codegenerierung | liveCodeBench schließen openai O1 | In der Nähe von O3 |
Argumentationstiefe | Komplexe Fragen erfordern segmentierte Eingabeaufforderungen. | Unterstützt 30–60 Minuten tiefes Denken |
Sprachliche Natürlichkeit | ziemlich langwierig | Kompakte Struktur, Schreibweise ähnlich wie O3 |
Nutzungskosten | Open Source oder API$0.5/M | Open Source oder API$0.5/M |
Verbesserte Fähigkeiten zum tiefen Denken
DeepSeek-R1-0528 verwendet weiterhin das im Dezember 2024 veröffentlichte DeepSeek V3-Basismodell als Grundlage, aber während des Nachtrainings wurde mehr Rechenleistung investiert, wodurch die Denktiefe und die Argumentationsfähigkeiten des Modells erheblich verbessert wurden.
Das aktualisierte R1-Modell hat in mehreren Benchmark-Bewertungen, darunter Mathematik, Programmierung und allgemeine Logik, unter allen inländischen Modellen die beste Leistung erzielt und seine Gesamtleistung ist jetzt mit anderen internationalen Spitzenmodellen wie o3 und Gemini-2.5-Pro vergleichbar.
- Mathematik- und Programmierfähigkeiten: Beim Mathematikwettbewerb AIME 2025 verbesserte sich die Genauigkeit von 70% in der vorherigen Version auf 87,5%; die Fähigkeiten zur Codegenerierung im LiveCodeBench-Benchmark-Test sind fast auf Augenhöhe mit dem o3-high-Modell von OpenAI und erreichen eine Punktzahl von pass@1 bei 73,3%.
Benutzertests zeigen, dass das neue DeepSeek-R1 beim Programmieren einfach erstaunlich ist!
Der KI-Experte „karminski-dentist“ testete DeepSeek-R1-0528 und Claude 4 Sonnet mit derselben Eingabeaufforderung und stellte Folgendes fest:

Ob es um die diffuse Reflexion von Licht an einer Wand, die Bewegungsrichtung eines Balls nach dem Aufprall oder die Ästhetik eines Bedienfelds geht, R1 übertrifft die Konkurrenz deutlich.
Benutzer Haider ließ das Modell ein Wortbewertungssystem erstellen. R1 überlegte kurz und erstellte sofort zwei Dateien – eine für den Code und eine für Arbeitstests –, die beim ersten Versuch einwandfrei liefen.

Zuvor war o3 das einzige Modell, das diese Aufgabe erfüllen konnte. Jetzt ist R1 zweifellos das beste Modell für diese Aufgabe.
Beachten Sie, dass die Leistung von R1 deshalb so bemerkenswert ist, weil die beiden zurückgegebenen Dateien beim ersten Versuch ohne jegliche Bearbeitung oder Wiederholungsversuche einwandfrei ausgeführt werden, was äußerst selten vorkommt.
Bisher wurden die meisten Modelle entweder in Grenzfällen abgebrochen, die Lösung war zu kompliziert oder es fehlte an einer ausreichenden Testabdeckung.
- Inferenztiefe: Die Denkzeit für eine einzelne Aufgabe wurde auf 30–60 Minuten verlängert, mit deutlich verbesserten Fähigkeiten zur Problemlösung bei komplexen Sachverhalten (z. B. Physiksimulationen, mehrstufige Logikrätsel).
Die längere Denkzeit ist zum meistdiskutierten Feature im Internet geworden. Einige Nutzer berichteten, dass die Denkzeit des R1 in Praxistests 25 Minuten überschritt.

Darüber hinaus scheint dies das einzige Modell zu sein, das die Frage „Was ist 9,9 minus 9,11?“ stets richtig beantworten kann.


DeepSeek-R1-0528 erzielte hervorragende Leistung auf allen Auswertungsdatensätzen
Im Vergleich zur vorherigen Version von R1 zeigt das neue Modell deutliche Verbesserungen bei komplexen Denkaufgaben. Beispielsweise stieg die Genauigkeitsrate des neuen Modells im AIME 2025-Test von 70% auf 87,5%.
Diese Verbesserung ist auf die größere Tiefe der Argumentation im Modell zurückzuführen: Beim AIME 2025-Testsatz verwendete das alte Modell durchschnittlich 12.000 Token pro Frage, während das neue Modell durchschnittlich 23.000 Token pro Frage verwendete, was auf ein detaillierteres und gründlicheres Denken im Problemlösungsprozess hindeutet.
Darüber hinaus hat das deepseek-Team die Argumentationskette aus DeepSeek-R1-0528 destilliert und die Qwen3-8B-Basis fein abgestimmt, was zu DeepSeek-R1-0528-Qwen3-8B führte.
Dieses 8B-Modell erreichte im AIME 2024-Mathematiktest den zweiten Platz nach DeepSeek-R1-0528, übertraf Qwen3-8B (+10,0%) und erreichte Qwen3-235B.
Die Argumentationsketten von DeepSeek-R1-0528 werden erhebliche Auswirkungen auf die akademische Forschung zu Argumentationsmodellen und die industrielle Entwicklung von Modellen im kleinen Maßstab haben.
Einige Internetnutzer lobten DeepSeek-R1 dafür, dass er in der Lage sei, Argumentationsketten wie o3 zu korrigieren und Welten wie Claude kreativ zu konstruieren.

Es ist wichtig zu beachten, dass DeepSeek ein Open-Source-Modell ist, was einen großen Sieg für Open-Source-Modelle darstellt.

AIME 2024-Vergleichsergebnisse für Open-Source-Modelle wie DeepSeek-R1-0528-Qwen3-8B
Weitere Funktionsupdates
- Verbesserung der Halluzinationen: Die neue Version von DeepSeek R1 bietet eine optimierte Leistung bei Halluzinationen. Im Vergleich zur Vorgängerversion erreicht das aktualisierte Modell eine Reduzierung der Halluzinationsraten um 45–50 % bei Aufgaben wie Umschreiben und Verfeinern, Zusammenfassen und Leseverständnis und liefert so genauere und zuverlässigere Ergebnisse.
- Kreatives Schreiben: Basierend auf der vorherigen R1-Version wurde das aktualisierte R1-Modell weiter für die Schreibstile Essay, Roman und Prosa optimiert. Dadurch können längere, strukturell vollständigere Werke erstellt werden, während gleichzeitig ein Schreibstil präsentiert wird, der stärker den menschlichen Vorlieben entspricht.
- Tool-Aufruf: DeepSeek-R1-0528 unterstützt Tool-Aufrufe (Tool-Aufrufe werden im Thinking nicht unterstützt). Die Tau-Bench-Bewertungswerte des aktuellen Modells betragen 53,51 TP11T für Fluggesellschaften und 63,91 TP11T für den Einzelhandel, vergleichbar mit OpenAI o1-high, aber immer noch hinter o3-High und Claude 4 Sonnet.
Das Beispiel zeigt eine Webartikelzusammenfassung, die mithilfe der Tool-Aufruffunktion von DeepSeek-R1-0528 über LobeChat generiert wurde. Darüber hinaus wurde DeepSeek-R1-0528 in Bereichen wie Front-End-Codegenerierung und Rollenspielen aktualisiert und verbessert.

Das Beispiel zeigt eine moderne und minimalistische Wortkartenanwendung, die mit HTML/CSS/JavaScript entwickelt wurde, indem DeepSeek-R1-0528 auf einer Webseite aufgerufen wird.

Wichtige Highlights des Updates DeepSeek-R1-0528
- Tiefgehende Denkfähigkeiten vergleichbar mit Google-Modellen
- Optimierung der Textgenerierung: natürlicher und besser formatiert
- Einzigartiger Argumentationsstil: nicht nur schneller, sondern auch strenger
- Unterstützung für langfristiges Denken: Die Bearbeitungszeit für eine einzelne Aufgabe kann 30–60 Minuten betragen

Die Funktionen der neuen Version von DeepSeek-R1 wurden von uns getestet. Obwohl es sich um ein „Minor Version“-Update handelt, wurde die Leistung deutlich verbessert.
Insbesondere in Bezug auf die Programmierfähigkeiten scheint es Claude 4 und Gemini 2.5 Pro übertroffen oder zumindest gleichwertig zu sein. Alle Eingabeaufforderungen sind „One-Shot“ und erfordern keine Änderungen! Und es kann direkt im Webbrowser ausgeführt werden, um seine Fähigkeiten zu demonstrieren.
Man spürt deutlich, dass die Denkprozesse der neuen Version DeepSeek-R1 stabiler sind.
Sie können deepseek-R1 jede beliebige Frage stellen, auf die Sie eine Antwort wünschen. Selbst wenn Ihre Frage etwas unsinnig ist, wird sie sorgfältig durchdacht und logisch aufgebaut. Wir empfehlen Ihnen dringend, das neueste deepseek-R1-Modell auszuprobieren.
API-Update-Informationen
Die API wurde aktualisiert, die Schnittstelle und die Aufrufmethoden bleiben jedoch unverändert. Die neue R1-API unterstützt weiterhin die Anzeige des Denkprozesses des Modells und unterstützt nun auch Funktionsaufrufe und JsonOutput.
Das deepseek-Team hat die Bedeutung des Parameters „max_tokens“ in der neuen R1-API angepasst: „max_tokens“ begrenzt nun die Gesamtlänge der einzelnen Ausgabe des Modells (einschließlich des Denkprozesses) mit einem Standardwert von 32 KB und einem Maximum von 64 KB. API-Benutzern wird empfohlen, den Parameter „max_tokens“ umgehend anzupassen, um ein vorzeitiges Abschneiden der Ausgabe zu verhindern.
Ausführliche Anweisungen zur Verwendung des Modells R1 finden Sie im deepseek R1 API-Leitfaden:
Nach diesem R1-Update beträgt die Modellkontextlänge auf der offiziellen Website, im Miniprogramm, in der App und in der API weiterhin 64 KB. Wenn Benutzer eine größere Kontextlänge benötigen, können sie die Open-Source-Version des Modells R1-0528 mit einer Kontextlänge von 128 KB über andere Drittanbieterplattformen aufrufen.
Offene Quelle
DeepSeek-R1-0528 verwendet dasselbe Basismodell wie das vorherige DeepSeek-R1, wobei lediglich die Methoden nach dem Training verbessert wurden.
Bei der privaten Bereitstellung müssen lediglich der Checkpoint und die tokenizer_config.json (Änderungen im Zusammenhang mit Tool-Aufrufen) aktualisiert werden. Die Modellparameter sind 685 B (davon 14 B für die MTP-Schicht) groß, und die Open-Source-Version hat eine Kontextlänge von 128 K (64 K sind für Web, App und API vorgesehen).