La startup chinoise à 6 millions de dollars d’entraînement qui a fait perdre 600 milliards à Nvidia en une seule journée — et qui propose gratuitement ce que ChatGPT facture 20 $/mois.
Janvier 2025. DeepSeek publie R1, son modèle de raisonnement. Les benchmarks rivalisent avec o1 d’OpenAI. Le coût d’entraînement annoncé : 5,5 millions de dollars — quand les labos américains dépensent 100 millions ou plus pour des résultats équivalents. Le marché comprend instantanément les implications : le cours de Nvidia chute de 600 milliards de dollars en 24 heures. La plus grosse perte boursière en une journée de l’histoire tech.
Depuis, DeepSeek a enchaîné : V3, V3.2, et début mars 2026, DeepSeek V4 — 1 trillion de paramètres, fenêtre de contexte d’1 million de tokens, performances proches de GPT-5 pour 1/10e du prix de l’API. Tout est open source (licence MIT). Tout est gratuit en interface web.
Mais derrière les performances et le prix, des questions sérieuses restent sans réponse. Et elles concernent directement tes données.
Chat gratuit et illimité. L’interface web (chat.deepseek.com) donne accès aux modèles V3 et R1 sans abonnement. Tu poses ta question, tu uploades des documents, tu génères du code. Pas de plan « Plus » à payer. Pas de limite de requêtes annoncée (environ 500 000 tokens/jour). C’est le même deal que Qwen d’Alibaba — l’IA chinoise gratuite qui veut grignoter les parts de marché des américains.
Architecture MoE (Mixture of Experts). C’est l’innovation technique qui a choqué l’industrie. Le modèle V3 compte 671 milliards de paramètres au total, mais n’en active que 37 milliards par requête. Seuls les « experts » pertinents pour ta question sont sollicités — le reste dort. Résultat : performances de pointe pour un coût de calcul fractionnaire. C’est comme avoir un cabinet de 20 spécialistes, mais ne payer que les 2-3 qui interviennent sur ton dossier.
DeepSeek-R1 — le spécialiste du raisonnement. Entraîné via apprentissage par renforcement sur la base V3. Score de 97,3% sur MATH-500 et 79,8% sur AIME 2024 — au niveau d’o1 d’OpenAI. Le mode DeepThink force le modèle à raisonner explicitement étape par étape avant de répondre. Tu vois la trace du raisonnement en temps réel — utile pour comprendre comment l’IA arrive à sa conclusion. Excellent pour l’analyse juridique, la planification stratégique et les problèmes de logique multi-étapes.
DeepSeek V4 (mars 2026). Le flagship : 1 trillion de paramètres (32 milliards actifs), fenêtre de contexte d’1 million+ de tokens, multimodal natif (texte, images, code, données structurées). Performances annoncées de classe GPT-5 — mais les benchmarks sont auto-déclarés et pas encore vérifiés indépendamment. À traiter avec prudence.
DeepSeek-Coder. Spécialisé code. 83,7% sur SWE-bench Verified pour V4. Excellent pour le debugging guidé, l’explication de code et la génération dans plusieurs langages. C’est le terrain où DeepSeek brille le plus objectivement.
Open source MIT. Tous les modèles sont publiés sur Hugging Face. Tu peux les télécharger, les modifier, les déployer sur ta propre infra. Des versions distillées (7B, 14B, 32B, 70B paramètres) tournent en local via Ollama sur du hardware grand public. Le modèle complet (685 Go) nécessite une infrastructure serveur conséquente.
API la moins chère du marché. À partir de 0,14 $/million de tokens en entrée — soit 10 à 30 fois moins cher que les API d’OpenAI ou Anthropic. Tarification heures pleines/heures creuses : tu paies encore moins si tu programmes tes tâches la nuit. 5 millions de tokens gratuits pour les nouveaux utilisateurs. L’API est compatible OpenAI (drop-in replacement).
| Chat (Web/App) | API | Local (Open Source) | |
|---|---|---|---|
| Prix | Gratuit | Dès 0,14 $/M tokens (entrée) | Gratuit |
| Modèles | V3.2, R1 | V4, V3.2, R1, Coder | Tous (MIT) |
| Contexte | 128K tokens | Jusqu’à 1M+ (V4) | Selon hardware |
| Données | Serveurs en Chine | Serveurs en Chine | 100% local |
| Fiabilité | Variable (pics de charge) | Variable (+ fournisseurs tiers) | Dépend de ton hardware |
| Essai gratuit API | — | 5M tokens sans carte | — |
Le rapport performance/prix est imbattable. DeepSeek V4 coûte environ 1/10e de GPT-5 et 1/27e d’o1 d’OpenAI pour des performances comparables (selon les benchmarks auto-déclarés). Pour les développeurs qui font tourner des LLMs à grande échelle, la différence se chiffre en milliers de dollars par mois.
Mais la fiabilité de l’API est un vrai problème. Hébergée principalement en Chine, l’API retourne régulièrement des erreurs « server busy » aux heures de pointe — surtout après les annonces virales. La solution : passer par des fournisseurs tiers (Together AI, Fireworks, OpenRouter) qui ajoutent une couche de fiabilité avec load balancing et fallback. Le surcoût est modeste et la stabilité est incomparable.
Tes données sont stockées sur des serveurs en Chine. C’est le point le plus critique. La politique de confidentialité de DeepSeek n’indique pas de conformité RGPD. Plusieurs gouvernements ont banni DeepSeek de leurs appareils officiels. Test-Achats (Belgique) et Altroconsumo (Italie) ont déposé plainte auprès de leurs autorités de protection des données respectives. Ce n’est pas de la paranoïa — ce sont des procédures juridiques réelles par des organisations de consommateurs européennes.
La censure est identique à Qwen. Taïwan, Tibet, Tiananmen, Ouïghours, Hong Kong — les réponses sont formatées, évasives ou effacées après avoir été générées. L’agent reconnaît parfois que ses réponses s’alignent sur les positions du gouvernement chinois. Pour le code, les maths, l’analyse de données : zéro impact. Pour la recherche, le journalisme ou le contenu politique : inutilisable.
Les benchmarks V4 sont auto-déclarés. DeepSeek annonce des performances de classe GPT-5. Les benchmarks indépendants ne sont pas encore publiés en mars 2026. « Traiter avec prudence » est le conseil le plus honnête qu’on puisse donner. Les performances de V3 et R1, elles, sont vérifiées et impressionnantes — c’est sur ça qu’il faut baser ta décision, pas sur les promesses de V4.
Le français est le point faible rédactionnel. DeepSeek excelle en code, en maths et en raisonnement logique. En rédaction française, les résultats sont corrects mais manquent de nuance, d’ironie et de style personnel. Claude est nettement supérieur pour le contenu éditorial francophone. DeepSeek n’est pas un outil de rédaction — c’est un outil de raisonnement et de code qui fonctionne aussi en français.
La communication est le point faible managérial. Sur des tâches de feedback, de négociation et de gestion de conversations délicates, DeepSeek se classe parmi les résultats les plus faibles du panel testé par mysummit.school. Si tu utilises l’IA pour rédiger des emails sensibles ou gérer des situations humaines complexes, choisis Claude ou ChatGPT.
Le modèle complet est massif. 685 Go pour le modèle V3 complet — ça nécessite une infrastructure serveur sérieuse. Les versions distillées (7B à 70B) sont la solution pratique pour l’auto-hébergement sur du hardware grand public. Via Ollama, l’installation est rapide.
| DeepSeek | ChatGPT | Claude | Qwen | |
|---|---|---|---|---|
| Prix chatbot | Gratuit | Gratuit (limité) → 20 $/mo | Gratuit (limité) → 20 $/mo | Gratuit (modèle max) |
| Prix API (entrée/M tokens) | Dès 0,14 $ | Dès 0,40 $ (mini) | Dès 0,25 $ (Haiku) | ~60% moins cher qu’OpenAI |
| Open source | Oui (MIT) | Non | Non | Oui (Apache 2.0) |
| Force | Code, maths, raisonnement | Polyvalence, écosystème | Rédaction, raisonnement | Multimodal, local dès 4 Go |
| Faiblesse | Rédaction FR, communication | Prix, modèle fermé | Prix, pas de local | Écosystème limité |
| Contexte max | 1M+ tokens (V4) | 128K tokens | 200K tokens | 256K tokens |
| Censure | Oui (politique CN) | Minimale | Minimale | Oui (politique CN) |
| Données | Chine (plaintes RGPD) | US | US | Chine (ou local) |
| Fiabilité API | Variable | Excellente | Très bonne | Bonne |
DeepSeek si tu es développeur et que le rapport performance/prix est ton critère n°1 — surtout pour le code, le raisonnement et les gros volumes API. ChatGPT si tu veux l’assistant le plus polyvalent avec le meilleur écosystème. Claude si la rédaction, l’analyse longue et la qualité du français sont tes priorités. Qwen si tu veux le même deal (gratuit + open source + chinois) mais avec un écosystème multimodal plus large et la possibilité de tourner sur un laptop 4 Go.
Oui. L’interface web et les apps mobiles sont gratuites sans abonnement. L’API offre 5 millions de tokens gratuits pour démarrer. Les modèles open source (MIT) sont téléchargeables sur Hugging Face. Le seul coût réel est l’API au-delà du free tier — et elle est 10-30x moins chère que les concurrents.
Non, pas au sens RGPD. Les données transitent par des serveurs en Chine. Aucune conformité RGPD n’est déclarée. Des plaintes ont été déposées en Belgique et en Italie. Pour des données sensibles, utilise le déploiement local (modèles MIT sur Hugging Face) — tes données ne quittent jamais ta machine.
DeepSeek si tu veux une IA gratuite ultra-forte en code et en raisonnement, que tu acceptes les risques données/Chine, et que la rédaction n’est pas ta priorité. ChatGPT si tu veux la polyvalence, la fiabilité, l’écosystème de plugins et une politique de données plus transparente. Pour un usage mixte : DeepSeek pour le code, ChatGPT ou Claude pour la rédaction.
Parce que DeepSeek a prouvé qu’on pouvait entraîner un modèle rival de GPT-4 pour 5,5 millions de dollars au lieu de 100+ millions. L’hypothèse du marché était que l’IA nécessitait toujours plus de GPUs Nvidia. DeepSeek a démontré que l’innovation architecturale (MoE, efficacité d’entraînement) pouvait remplacer la force brute du hardware. Le marché a corrigé — 600 milliards de capitalisation boursière en moins en 24 heures.
Oui, pour les tâches techniques (code, analyse, raisonnement). Pour la rédaction en français avec du style et de la nuance, Claude reste supérieur. DeepSeek est un outil technique qui fonctionne EN français — pas un outil DE rédaction française.
Les benchmarks sont auto-déclarés (mars 2026). Les performances annoncées sont impressionnantes mais pas encore vérifiées indépendamment. Base ta décision sur V3.2 et R1, dont les benchmarks sont confirmés — pas sur les promesses de V4.
Pour découvrir d’autres modèles IA et comparer les alternatives, explore notre hub d’outils IA.
No results available