En janvier 2025, un laboratoire d’IA chinois pratiquement inconnu du grand public a publié un modèle d’intelligence artificielle qui a fait chuter le titre Nvidia de 17 % en une seule séance de bourse — soit environ 600 milliards de dollars de capitalisation boursière effacés en une journée. Ce laboratoire, c’est DeepSeek. Et ce qu’il a accompli mérite qu’on l’explique clairement.
DeepSeek, c’est quoi ?
DeepSeek est une entreprise d’intelligence artificielle fondée en 2023 à Hangzhou, en Chine. Elle a été créée par Liang Wenfeng, également fondateur du fonds spéculatif High-Flyer, qui a financé le projet. DeepSeek est donc, à l’origine, une initiative privée — pas un projet d’État — bien qu’elle opère dans un contexte réglementaire et géopolitique chinois.
L’entreprise développe des grands modèles de langage (LLM), c’est-à-dire des IA du même type que ChatGPT, Gemini ou Claude. Mais ce qui rend DeepSeek remarquable n’est pas son existence en tant que telle — il existe des dizaines de laboratoires d’IA dans le monde — c’est la façon dont il a été construit, et les performances qu’il atteint au regard du coût engagé.
Pourquoi DeepSeek a fait trembler la Silicon Valley
Des performances comparables à GPT-4 pour une fraction du coût
Fin janvier 2025, DeepSeek a publié DeepSeek-R1, un modèle de raisonnement qui a obtenu des scores comparables — voire supérieurs dans certains benchmarks — à GPT-4o et Claude 3.5 Sonnet sur des tâches de mathématiques, de logique et de programmation.
Ce qui a stupéfait le secteur, c’est le coût déclaré de l’entraînement : environ 6 millions de dollars. À titre de comparaison, OpenAI aurait dépensé des centaines de millions, voire plus d’un milliard de dollars, pour entraîner GPT-4. Même si ces chiffres doivent être pris avec précaution (les coûts d’entraînement sont difficiles à vérifier de l’extérieur), l’ordre de grandeur a suffi à secouer l’industrie.
L’efficacité comme arme stratégique
Pour atteindre ces performances avec des ressources moindres, DeepSeek a notamment utilisé :
- La distillation de modèles : technique qui consiste à entraîner un modèle plus petit en lui faisant “apprendre” des réponses générées par un modèle plus grand (en l’occurrence, des modèles OpenAI, ce qui a soulevé des questions légales et éthiques).
- Une architecture “Mixture of Experts” (MoE) : plutôt qu’activer l’ensemble du réseau de neurones à chaque requête, seul un sous-ensemble d’experts spécialisés est mobilisé. Résultat : moins de calcul nécessaire pour chaque inférence.
- Des optimisations de bas niveau dans la façon d’utiliser les puces graphiques (GPU), permettant de contourner partiellement les restrictions d’exportation américaines sur les semi-conducteurs avancés.
L’accès aux puces Nvidia — et le choc géopolitique
Les États-Unis ont imposé depuis 2022-2023 des restrictions sévères à l’exportation de puces Nvidia avancées (notamment les H100) vers la Chine. L’hypothèse implicite était que sans accès aux meilleurs processeurs, la Chine ne pourrait pas développer des modèles d’IA de premier plan.
DeepSeek a contredit cette hypothèse. En démontrant qu’il était possible d’atteindre des performances de pointe avec des puces moins récentes (les H800, version bridée autorisée à l’export) et des techniques d’optimisation avancées, le laboratoire a remis en question toute la logique des sanctions technologiques. C’est cette réalisation — autant que les performances brutes — qui a provoqué la chute boursière de Nvidia.
Comment fonctionne DeepSeek ?
DeepSeek fonctionne sur le même principe de base que les autres LLM : il a été entraîné sur d’immenses quantités de textes pour apprendre les patterns du langage, puis affiné pour être utile et sûr.
Sa particularité : DeepSeek-R1 est un modèle de raisonnement, similaire aux modèles o1/o3 d’OpenAI. Avant de répondre, il génère une “chaîne de pensée” interne (visible dans l’interface) où il décompose le problème, explore des pistes, se corrige. Cette approche améliore significativement les performances sur les tâches nécessitant plusieurs étapes logiques.
Open source ou pas ?
DeepSeek a publié ses modèles en open source (ou plus précisément sous des licences permissives) — ce qui signifie que le code et les poids des modèles sont téléchargeables librement. N’importe qui peut les faire tourner sur ses propres serveurs, les modifier, les intégrer dans des applications.
Cette décision de transparence tranche avec la politique d’OpenAI (dont le nom est désormais un peu ironique), qui garde ses modèles fermés. Elle a permis à des milliers de développeurs dans le monde de tester, vérifier et construire sur DeepSeek — amplifiant massivement sa visibilité.
Peut-on l’utiliser gratuitement ?
Oui. DeepSeek propose :
- Une application mobile disponible sur iOS et Android
- Un site web accessible à deepseek.com
- Une API (pour les développeurs) au tarif très compétitif
L’interface est en anglais et en chinois, avec une compréhension du français correcte mais moins fluide qu’en anglais.
Attention : l’application et le service cloud de DeepSeek stockent vos données sur des serveurs en Chine. Pour un usage personnel et non sensible, ce n’est pas différent d’utiliser TikTok ou d’autres services numériques chinois. Pour des données professionnelles confidentielles ou des informations sensibles, la prudence est de mise.
Alternativement, les modèles DeepSeek étant open source, il est possible de les faire tourner localement via des outils comme Ollama — sans aucune donnée envoyée vers l’extérieur.
DeepSeek vs ChatGPT : que choisir ?
| Critère | DeepSeek-R1 | ChatGPT (GPT-4o) |
|---|---|---|
| Raisonnement logique / maths | Excellent | Très bon |
| Qualité du français | Bon | Excellent |
| Accès gratuit | Oui, généreux | Oui, limité |
| Open source | Oui | Non |
| Données stockées | Chine | États-Unis |
| Navigation web | Non (version de base) | Oui |
| Génération d’images | Non | Oui (DALL-E 3) |
| Plugins / GPTs | Non | Oui |
En pratique : DeepSeek excelle sur les tâches de raisonnement pur, de code et de mathématiques. ChatGPT reste supérieur pour un usage généraliste en français, la génération multimodale et l’écosystème d’outils intégrés.
Ce que DeepSeek change pour l’avenir de l’IA
L’émergence de DeepSeek a plusieurs implications profondes :
1. La course à l’IA est plus ouverte que prévu. Les États-Unis ne détiennent pas un monopole technologique aussi solide qu’espéré. D’autres acteurs — pas uniquement chinois — peuvent désormais espérer développer des modèles compétitifs sans les milliards de dollars des géants américains.
2. L’efficacité devient le nouveau champ de bataille. La prochaine frontière n’est plus seulement “quel modèle est le plus puissant” mais “quel modèle est le plus puissant pour un coût donné”. DeepSeek a déplacé les termes du débat.
3. L’open source gagne en légitimité. En publiant ses modèles librement, DeepSeek a démontré qu’on pouvait être compétitif et ouvert. Cela met une pression supplémentaire sur les acteurs fermés pour justifier leur opacité.
4. Les questions géopolitiques et de souveraineté des données s’intensifient. Faire confiance à un modèle d’IA, c’est aussi faire confiance à son créateur et à la juridiction dans laquelle il opère. DeepSeek rend cette question incontournable.
DeepSeek n’est pas une révolution dans le sens où il aurait inventé quelque chose de fondamentalement nouveau. Mais il a prouvé que l’intelligence artificielle de pointe n’est pas réservée à ceux qui ont les plus grandes enveloppes budgétaires — et cette démonstration, dans un secteur où les investissements atteignent des dizaines de milliards de dollars, est en elle-même une rupture.