Les Modèle DeepSeek R1 a subi une mise à jour mineure, la version actuelle étant DeepSeek-R1-0528. Lorsque vous accédez à la page web ou à l'application DeepSeek, activez la fonction « Réflexion approfondie » dans l'interface de dialogue pour découvrir la dernière version.
Les poids du modèle DeepSeek-R1-0528 ont été téléchargés sur HuggingFace

Au cours des quatre derniers mois, le DeepSeek-R1 a connu une évolution majeure, atteignant des capacités de codage hors normes et des temps de réflexion nettement plus longs. Bien qu'il ne soit peut-être pas le DeepSeek-R2 Comme tout le monde l'attendait, les améliorations du modèle DeepSeek-R1-0528 sont substantielles.
Selon les rapports, le nouveau modèle est formé sur DeepSeek-V3-0324 (avec des paramètres 660B).
Commençons d’abord par jeter un coup d’œil rapide aux principales mises à jour de cette version via un tableau.
Dimension de capacité | deepseek-R1 | Deepseek-R1-0528 |
Contexte maximal | 64 k (API) | 128K(API)encore plus |
Génération de code | liveCodeBench fermer openai O1 | Proche de O3 |
Profondeur du raisonnement | Les questions complexes nécessitent des invites segmentées. | Prend en charge 30 à 60 minutes de réflexion approfondie |
Naturalité du langage | plutôt long | Structure compacte, écriture similaire à O3 |
Coût d'utilisation | Open source ou API$0.5/M | Open source ou API$0.5/M |
Capacités de réflexion approfondie améliorées
Le DeepSeek-R1-0528 utilise toujours le modèle de base DeepSeek V3 publié en décembre 2024 comme base, mais après la formation, davantage de puissance de calcul a été investie, améliorant considérablement la profondeur de réflexion et les capacités de raisonnement du modèle.
Le modèle R1 mis à jour a atteint des performances de premier ordre parmi tous les modèles nationaux dans plusieurs évaluations de référence, notamment en mathématiques, en programmation et en logique générale, et ses performances globales sont désormais comparables à celles d'autres modèles internationaux de premier plan tels que o3 et Gemini-2.5-Pro.
- Capacités mathématiques et de programmation : Dans le concours de mathématiques AIME 2025, la précision est passée de 70% dans la version précédente à 87,5% ; les capacités de génération de code dans le test de référence LiveCodeBench sont presque à égalité avec le modèle o3-high d'OpenAI, atteignant un score de pass@1 de 73,3%.
Les tests utilisateurs montrent que le nouveau DeepSeek-R1 est tout simplement étonnant en programmation !
L'expert en IA « karminski-dentist » a testé DeepSeek-R1-0528 et Claude 4 Sonnet en utilisant la même invite et a découvert que :

Qu'il s'agisse de la réflexion diffuse de la lumière sur un mur, de la direction du mouvement d'une balle après l'impact ou de l'attrait esthétique d'un panneau de commande, R1 surpasse clairement la concurrence.
L'utilisateur Haider a demandé au modèle de créer un système de notation des mots. R1 a brièvement examiné la tâche et a immédiatement produit deux fichiers – un pour le code et un autre pour les tests pratiques – qui ont fonctionné parfaitement du premier coup.

Auparavant, o3 était le seul modèle capable d'accomplir cette tâche. Aujourd'hui, R1 est incontestablement le modèle le plus adapté.
Notez que les performances de R1 sont si remarquables parce que les deux fichiers qu'il renvoie s'exécutent parfaitement du premier coup, sans aucune modification ni nouvelle tentative, ce qui est extrêmement rare.
Auparavant, la plupart des modèles se terminaient dans des cas limites, compliquaient excessivement la solution ou manquaient de couverture de test adéquate.
- Profondeur d'inférence : temps de réflexion sur une tâche unique étendu à 30 à 60 minutes, avec des capacités de résolution de problèmes considérablement améliorées pour les problèmes complexes (par exemple, simulations physiques, énigmes logiques en plusieurs étapes).
L'allongement du temps de réflexion est devenu la fonctionnalité la plus discutée en ligne. Certains utilisateurs ont signalé que le temps de réflexion de R1 dépassait 25 minutes lors de tests en conditions réelles.

De plus, il semble que ce soit le seul modèle capable de répondre correctement et systématiquement à la question « Combien font 9,9 moins 9,11 ? »


DeepSeek-R1-0528 a obtenu d'excellentes performances sur tous les ensembles de données d'évaluation
Par rapport à la version précédente de R1, le nouveau modèle présente des améliorations significatives dans les tâches de raisonnement complexes. Par exemple, lors du test AIME 2025, le taux de précision du nouveau modèle est passé de 70% à 87,5%.
Cette amélioration est due à la profondeur accrue du raisonnement dans le modèle : sur l'ensemble de tests AIME 2025, l'ancien modèle utilisait en moyenne 12 000 jetons par question, tandis que le nouveau modèle utilisait en moyenne 23 000 jetons par question, indiquant une réflexion plus détaillée et plus approfondie dans le processus de résolution de problèmes.
De plus, l'équipe deepseek a distillé la chaîne de raisonnement de DeepSeek-R1-0528 et a peaufiné la base Qwen3-8B, ce qui a donné DeepSeek-R1-0528-Qwen3-8B.
Ce modèle 8B s'est classé deuxième seulement après DeepSeek-R1-0528 dans le test de mathématiques AIME 2024, surpassant Qwen3-8B (+10,0%) et égalant Qwen3-235B.
Les chaînes de raisonnement du DeepSeek-R1-0528 auront des implications importantes pour la recherche universitaire sur les modèles de raisonnement et le développement industriel de modèles à petite échelle.
Certains internautes ont félicité DeepSeek-R1 pour sa capacité à corriger des chaînes de raisonnement comme o3 et à construire des mondes de manière créative comme Claude.

Il est important de noter que DeepSeek est un modèle open source, marquant une victoire majeure pour les modèles open source.

Résultats de comparaison AIME 2024 pour les modèles open source tels que DeepSeek-R1-0528-Qwen3-8B
Autres mises à jour de fonctionnalités
- Amélioration des hallucinations : La nouvelle version du DeepSeek R1 a optimisé les performances pour les problèmes d'hallucinations. Par rapport à la version précédente, le modèle mis à jour permet une réduction de 45 à 50 % du taux d'hallucinations pour des tâches telles que la réécriture et le perfectionnement, la synthèse et la compréhension écrite, offrant ainsi des résultats plus précis et plus fiables.
- Écriture créative : Basé sur la version R1 précédente, le modèle R1 mis à jour a été encore optimisé pour les styles d'écriture d'essais, de romans et de prose, lui permettant de générer des œuvres plus longues et plus complètes structurellement tout en présentant un style d'écriture plus adapté aux préférences humaines.
- Appel d'outil : DeepSeek-R1-0528 prend en charge l'appel d'outil (l'appel d'outil n'est pas pris en charge dans Thinking). Les scores d'évaluation Tau-Bench du modèle actuel sont de 53,5% pour les compagnies aériennes et de 63,9% pour le commerce de détail, comparables à ceux d'OpenAI o1-high, mais toujours inférieurs à ceux d'o3-High et de Claude 4 Sonnet.
L'exemple montre un résumé d'article web généré grâce à la fonctionnalité d'invocation de l'outil DeepSeek-R1-0528 via LobeChat. De plus, DeepSeek-R1-0528 a été mis à jour et amélioré dans des domaines tels que la génération de code front-end et les jeux de rôle.

L'exemple montre une application de carte de mots moderne et minimaliste développée à l'aide de HTML/CSS/JavaScript en invoquant DeepSeek-R1-0528 sur une page Web.

Points clés de la mise à jour DeepSeek-R1-0528
- Capacités de raisonnement profond comparables aux modèles Google
- Optimisation de la génération de texte : plus naturel et mieux formaté
- Style de raisonnement unique : non seulement plus rapide mais aussi plus rigoureux
- Prise en charge de la réflexion à long terme : le temps de traitement d’une seule tâche peut atteindre 30 à 60 minutes

Nous avons testé les capacités de la nouvelle version du DeepSeek-R1. Bien qu'il s'agisse d'une mise à jour mineure, ses performances ont été considérablement améliorées.
En termes de capacités de programmation, il semble avoir surpassé, voire égalé, Claude 4 et Gemini 2.5 Pro. Toutes les invites sont « one-shot » et ne nécessitent aucune modification ! Et il peut être exécuté directement dans un navigateur web pour démontrer ses capacités.
Vous pouvez clairement sentir que le processus de réflexion de la nouvelle version DeepSeek-R1 est plus stable.
Vous pouvez poser à deepseek-R1 toutes vos questions. Même si elles sont un peu absurdes, il réfléchira avec soin et organisera sa logique. Nous vous recommandons vivement d'essayer le dernier modèle deepseek-R1.
Informations sur la mise à jour de l'API
L'API a été mise à jour, mais l'interface et les méthodes d'appel restent inchangées. La nouvelle API R1 prend toujours en charge la visualisation du processus de réflexion du modèle et prend désormais en charge les appels de fonctions et JsonOutput.
L'équipe deepseek a ajusté la signification du paramètre max_tokens dans la nouvelle API R1 : max_tokens limite désormais la longueur totale de la sortie unique du modèle (y compris le processus de réflexion), avec une valeur par défaut de 32 Ko et un maximum de 64 Ko. Il est conseillé aux utilisateurs de l'API d'ajuster rapidement le paramètre max_tokens pour éviter que la sortie ne soit tronquée prématurément.
Pour des instructions détaillées sur l'utilisation du modèle R1, veuillez vous référer au Guide de l'API deepseek R1:
Après cette mise à jour R1, la longueur du contexte du modèle sur le site web officiel, le mini-programme, l'application et l'API restera de 64 Ko. Si les utilisateurs ont besoin d'une longueur de contexte plus longue, ils peuvent appeler la version open source du modèle R1-0528 avec une longueur de contexte de 128 Ko via des plateformes tierces.
Source ouverte
Le DeepSeek-R1-0528 utilise le même modèle de base que le précédent DeepSeek-R1, avec uniquement des améliorations apportées aux méthodes de post-formation.
Lors d'un déploiement privé, seuls le point de contrôle et le fichier tokenizer_config.json (modifications liées aux appels d'outils) doivent être mis à jour. Les paramètres du modèle sont de 685 octets (dont 14 octets pour la couche MTP), et la version open source a une longueur de contexte de 128 Ko (une longueur de contexte de 64 Ko est fournie pour le Web, les applications et l'API).