API DeepSeek : le guide complet pour développeurs
L’API DeepSeek utilise un format compatible OpenAI, ce qui permet de l’intégrer dans n’importe quelle application existante en changeant simplement l’URL de base et la clé API. Deux endpoints : deepseek-chat (mode chat rapide) et deepseek-reasoner (mode raisonnement), tous deux propulsés par le modèle V3.2.
L’API DeepSeek est l’une des plus abordables du marché pour un LLM de calibre frontier. À $0,28 par million de tokens en input et $0,42 en output, elle coûte environ 9 fois moins que GPT-5.4 et 10 fois moins que Claude Sonnet 4.6. Le context caching automatique réduit encore le coût à $0,028 par million de tokens en cache hit, soit une économie de 90%. Ce guide couvre tout ce qu’il faut savoir pour intégrer l’API DeepSeek dans vos projets : inscription, endpoints, prix, fonctionnalités avancées, exemples de code, limites et alternatives d’hébergement.
- Base URL
https://api.deepseek.com- Compatibilité
- Format OpenAI (SDK OpenAI, langchain, etc.)
- Endpoints
deepseek-chat(non-thinking) /deepseek-reasoner(thinking)- Modèle
- DeepSeek V3.2 (128K tokens de contexte)
- Prix input
- $0,28/1M tokens (cache miss) / $0,028 (cache hit)
- Prix output
- $0,42/1M tokens
- Rate limit
- Aucun (officiellement pas de contrainte)
- Plateforme
- platform.deepseek.com
Démarrage rapide : votre premier appel API
Étape 1 : créer un compte et obtenir une clé
Rendez-vous sur platform.deepseek.com. Créez un compte (email ou connexion tierce). Naviguez vers la section API Keys et générez une nouvelle clé. Elle commence par sk-. Conservez-la précieusement : elle ne sera plus visible après la création.
Rechargez votre solde. DeepSeek fonctionne en prépaiement : vous créditez votre compte, puis les requêtes sont déduites de ce solde. Avec les tarifs actuels, $5 suffisent pour des millions de tokens, largement assez pour tester et même pour un usage régulier modéré.
Étape 2 : premier appel avec curl
curl https://api.deepseek.com/chat/completions
-H "Content-Type: application/json"
-H "Authorization: Bearer VOTRE_CLE_API"
-d '{
"model": "deepseek-chat",
"messages": [
{"role": "system", "content": "Vous êtes un assistant utile."},
{"role": "user", "content": "Expliquez les closures en JavaScript en 3 phrases."}
],
"stream": false
}'
La réponse suit le format standard OpenAI, avec un objet choices contenant le message de l’assistant et un objet usage détaillant la consommation de tokens.
Étape 3 : intégration Python avec le SDK OpenAI
# pip install openai
from openai import OpenAI
client = OpenAI(
api_key="VOTRE_CLE_API",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": "Vous êtes un développeur Python expert."},
{"role": "user", "content": "Écrivez une fonction de tri par insertion avec type hints."}
],
stream=False
)
print(response.choices[0].message.content)
L’intégration est immédiate si vous utilisez déjà le SDK OpenAI. Il suffit de changer base_url et api_key. Aucune modification du reste de votre code.
Avec Node.js
// npm install openai
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.deepseek.com",
apiKey: process.env.DEEPSEEK_API_KEY,
});
const response = await client.chat.completions.create({
model: "deepseek-chat",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Hello!" }
],
});
console.log(response.choices[0].message.content);
https://api.deepseek.com/v1 fonctionne aussi (pour compatibilité avec certains SDK qui ajoutent automatiquement le préfixe /v1). Le v1 n’a aucun rapport avec la version du modèle.
Les deux endpoints : chat vs reasoner
L’API DeepSeek expose deux modèles qui sont en réalité le même modèle sous-jacent (DeepSeek V3.2) dans deux modes d’inférence :
| Endpoint | deepseek-chat |
deepseek-reasoner |
|---|---|---|
| Mode | Non-thinking (réponse directe) | Thinking (chain-of-thought) |
| Contexte max | 128K tokens | 128K tokens |
| Output max (défaut) | 4K tokens | 32K tokens |
| Output max (maximum) | 8K tokens | 64K tokens |
| JSON Output | ✅ | ✅ |
| Tool Calls | ✅ | ✅ |
| FIM Completion (beta) | ✅ | ❌ |
| Chat Prefix (beta) | ✅ | ✅ |
| Vitesse | Rapide | Plus lent (thinking tokens) |
| Coût effectif | Bas | Plus élevé (tokens de raisonnement facturés) |
Le mode Thinking en détail
Quand vous utilisez deepseek-reasoner, le modèle génère des tokens de raisonnement (visibles dans le champ reasoning_content de la réponse) avant de produire la réponse finale. Ces tokens de raisonnement sont facturés comme des tokens de sortie ($0,42/1M). Sur un problème mathématique complexe, le modèle peut générer 15 000 à 23 000 tokens de raisonnement, ce qui multiplie significativement le coût par rapport au mode chat.
V3.2 est le premier modèle DeepSeek à supporter le raisonnement intégré au tool-use : le modèle peut « réfléchir » tout en utilisant des outils, dans les deux modes (thinking et non-thinking).
Tarification détaillée (mars 2026)
La grille tarifaire de l’API DeepSeek est parmi les plus simples du marché. Un seul niveau de prix, pas de tiers, pas de surcoût long contexte :
| Poste | Prix par 1M tokens |
|---|---|
| Input (cache miss) | $0,28 |
| Input (cache hit) | $0,028 |
| Output | $0,42 |
Le tarif est identique pour deepseek-chat et deepseek-reasoner. La différence de coût vient uniquement du volume de tokens générés.
Face à la concurrence
| Modèle | Input ($/1M) | Output ($/1M) | Ratio vs DeepSeek |
|---|---|---|---|
| DeepSeek V3.2 | $0,28 | $0,42 | 1x (référence) |
| Mistral Large 3 | ~$0,50 | ~$1,50 | ~2-3x |
| Gemini 3 Flash | ~$0,50 | ~$3,00 | ~2-7x |
| GPT-5.4 | $2,50 | $15,00 | ~9-36x |
| Claude Sonnet 4.6 | $3,00 | $15,00 | ~11-36x |
| Claude Opus 4.6 | $5,00 | $25,00 | ~18-60x |
DeepSeek est le LLM frontier le moins cher en API. Le seul concurrent sur le segment « ultra low-cost » est Gemini 3.1 Flash-Lite (~$0,25/$1,50), mais avec des performances nettement inférieures.
Context Caching : économiser 90% sur l’input
Le context caching de DeepSeek est activé par défaut, sans aucune modification de code. Quand deux requêtes partagent un préfixe commun (prompt système, exemples few-shot, contenu de document), les tokens en commun sont servis depuis un cache disque distribué au lieu d’être recalculés.
Le mécanisme est simple : seul le préfixe commun (à partir du token 0) est éligible au cache. Si les requêtes divergent au milieu, les tokens après la divergence ne sont pas cachés. Le cache fonctionne par blocs de 64 tokens : un contenu de moins de 64 tokens ne sera pas mis en cache.
Dans la réponse API, deux champs dans l’objet usage permettent de surveiller les performances du cache :
{
"usage": {
"prompt_tokens": 1520,
"prompt_cache_hit_tokens": 1280,
"prompt_cache_miss_tokens": 240,
"completion_tokens": 350,
"total_tokens": 1870
}
}
Dans cet exemple, 84% de l’input est servi depuis le cache ($0,028/1M au lieu de $0,28/1M), soit une économie de 84% sur l’input.
Comment maximiser les cache hits
Placez le contenu stable en début de prompt : prompt système, instructions générales, exemples few-shot. Les parties variables (question utilisateur) doivent être en fin de message. Plus le préfixe commun est long, plus l’économie est importante.
Pour un prompt de 128K tokens avec un préfixe hautement réutilisé, la latence du premier token passe de ~13 secondes à ~500 millisecondes. Le caching réduit donc à la fois le coût et la latence.
Sans optimisation spécifique, les données historiques de DeepSeek montrent une économie moyenne de plus de 50% sur les coûts d’input. Avec optimisation (prompts structurés pour maximiser le préfixe commun), l’économie peut atteindre 90%.
Fonctionnalités avancées
Tool Calls (appels de fonctions)
L’API supporte les appels de fonctions au format OpenAI. Vous définissez des outils (fonctions) avec leurs paramètres, et le modèle décide quand les appeler. V3.2 est le premier modèle DeepSeek à supporter le thinking intégré au tool-use, ce qui signifie que le modèle peut raisonner sur quand et comment utiliser les outils.
response = client.chat.completions.create(
model="deepseek-chat",
messages=[{"role": "user", "content": "Quelle est la météo à Paris ?"}],
tools=[{
"type": "function",
"function": {
"name": "get_weather",
"description": "Obtient la météo d'une ville",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string", "description": "Nom de la ville"}
},
"required": ["city"]
}
}
}]
)
JSON Output (mode structuré)
Le mode JSON force le modèle à retourner une réponse dans un format JSON valide. Activez-le avec "response_format": {"type": "json_object"} dans votre requête. C’est essentiel pour les pipelines automatisés qui parsent la sortie du modèle.
FIM Completion (beta)
La complétion Fill-in-the-Middle permet au modèle de compléter un code entre un préfixe et un suffixe donnés. Disponible uniquement sur deepseek-chat, via l’endpoint /beta/completions. C’est particulièrement utile pour l’intégration dans des IDE comme Cursor pour la complétion inline.
Streaming
Passez "stream": true pour recevoir la réponse token par token en Server-Sent Events (SSE). Indispensable pour les interfaces utilisateur temps réel. Avec le mode thinking, le flux inclut d’abord les tokens de raisonnement, puis les tokens de réponse.
Compatibilité API Anthropic
Fait peu connu : l’API DeepSeek supporte également le format de l’API Anthropic. Si votre application utilise le SDK Anthropic, vous pouvez potentiellement pointer vers DeepSeek avec des ajustements minimes. Consultez la documentation officielle pour les détails d’implémentation.
Rate Limits et disponibilité
DeepSeek affirme officiellement ne pas imposer de rate limits : « We will try our best to serve every request. » En pratique, l’infrastructure est conçue pour traiter jusqu’à 1 trillion de tokens par jour, sans contrainte de concurrence.
Cependant, en conditions réelles, des limitations existent :
Pendant les pics de trafic (heures ouvrables en Chine, annonces de nouveaux modèles), les temps de réponse peuvent augmenter significativement, et des erreurs 429 (Too Many Requests) ou 503 (Service Unavailable) peuvent apparaître.
L’API DeepSeek a connu des pannes notables en 2025, notamment lors du lancement de R1 (janvier 2025) et de V3.2 (décembre 2025), où la demande a submergé l’infrastructure.
Pour la production, prévoyez un mécanisme de retry avec backoff exponentiel et jitter. Et si la fiabilité est critique, envisagez les fournisseurs tiers qui hébergent DeepSeek sur leur propre infrastructure (voir section suivante).
Fournisseurs alternatifs : héberger DeepSeek ailleurs
L’API officielle DeepSeek est la moins chère, mais elle présente deux inconvénients : la fiabilité (serveurs en Chine, pannes occasionnelles) et la souveraineté des données (vos requêtes transitent par des serveurs chinois). Plusieurs fournisseurs tiers hébergent les modèles DeepSeek sur leur propre infrastructure :
| Fournisseur | Localisation serveurs | Modèles disponibles | Avantage principal |
|---|---|---|---|
| Fireworks AI | US | V3.2, R1 | Faible latence, utilisé par Cursor |
| Together AI | US | V3, R1, distillés | Bon rapport qualité/prix |
| Groq | US | R1 (distillés) | Vitesse d’inférence extrême (LPU) |
| DeepInfra | US/EU | V3, V3.2-Exp, R1 | Variété de modèles |
| OpenRouter | Multi | V3, R1, distillés | Routage multi-fournisseurs |
| NVIDIA NIM | Cloud NVIDIA | V3.2 | Optimisé pour GPU NVIDIA |
Les prix chez les fournisseurs tiers sont généralement plus élevés que l’API officielle (typiquement 2 à 5 fois), mais vous gagnez en fiabilité, en latence depuis l’Europe ou les US, et en conformité RGPD si le fournisseur héberge en UE.
L’alternative ultime pour la souveraineté : le déploiement local via Ollama, vLLM ou SGLang. Les poids du modèle sont sous licence MIT, donc le self-hosting est entièrement légal et gratuit.
Sécurité et confidentialité
Quelques points importants à considérer avant d’intégrer l’API DeepSeek en production :
Localisation des données. Les serveurs de l’API officielle sont situés en Chine. Vos prompts et réponses transitent par ces serveurs. Pour les entreprises européennes soumises au RGPD, c’est un point juridique à évaluer avec votre DPO. Les fournisseurs tiers (US/EU) ou le self-hosting éliminent ce problème.
Stockage des données. La politique de confidentialité de DeepSeek indique que les données peuvent être stockées et utilisées pour l’amélioration des modèles. Si vos prompts contiennent des données sensibles (code propriétaire, données personnelles, informations financières), considérez le mode local ou un fournisseur tiers avec des garanties contractuelles.
Protection de la clé API. Stockez votre clé dans des variables d’environnement, jamais dans le code source. Utilisez HTTPS exclusivement (l’API l’exige). Surveillez votre consommation via le dashboard pour détecter toute utilisation anormale.
La censure du modèle. DeepSeek applique un filtrage sur certains sujets politiquement sensibles (conformément à la réglementation chinoise). Si votre application nécessite des réponses non filtrées, explorez les modèles décensurés comme R1-1776 de Perplexity (disponible via les poids open-weight).
Intégrations courantes
Grâce à la compatibilité OpenAI, l’API DeepSeek s’intègre dans la plupart des outils et frameworks de l’écosystème IA :
IDE et assistants de code : Cursor (modèle custom ou intégré), VS Code via Cline/Continue, n’importe quel outil supportant l’API OpenAI.
Frameworks d’agents : LangChain, LlamaIndex, CrewAI, AutoGen. Remplacez le client OpenAI par le client DeepSeek (même format, URL différente).
Automatisation : Make, Zapier, n8n via les modules HTTP ou les intégrations OpenAI-compatible.
Applications web : tout framework (Next.js, FastAPI, Express) peut appeler l’API via le SDK OpenAI. Le streaming SSE fonctionne avec les réponses temps réel.
Limites à connaître
La fenêtre de contexte de 128K tokens est inférieure à celle de Claude Opus 4.6 (1M tokens) ou Gemini 3.1 Pro (~1M tokens). Pour les analyses de documents très longs, c’est une contrainte.
L’output maximum de 8K tokens en mode chat peut être limitant pour la génération de longs documents. En mode reasoner, l’output peut aller jusqu’à 64K tokens, mais une grande partie est consommée par les tokens de raisonnement.
L’API est stateless : chaque requête doit inclure l’intégralité du contexte conversationnel. Pour les conversations longues, gérez manuellement la compression ou le résumé du contexte pour rester dans la fenêtre de 128K.
Pas de support natif des images ou de l’audio via l’API V3.2. Pour la vision, les modèles DeepSeek-VL sont disponibles en open-weight mais pas via l’API principale.
Verdict
L’API DeepSeek est le meilleur rapport qualité/prix du marché pour un LLM de calibre frontier. La compatibilité OpenAI rend l’intégration triviale, le context caching automatique réduit les coûts sans effort, et les performances de V3.2 rivalisent avec GPT-5 sur de nombreux benchmarks.
L’API convient parfaitement pour les applications à fort volume où le coût par token est critique : chatbots, pipelines de traitement de texte, génération de code, analyse de documents. Pour les cas nécessitant la meilleure qualité absolue (rédaction créative, suivi d’instructions très complexes), Claude ou GPT-5.4 restent supérieurs.
La recommandation : commencez par deepseek-chat pour vos cas d’usage. Si la qualité suffit (et elle suffit souvent), vous venez de diviser votre facture API par 10 ou plus. Si elle ne suffit pas sur certaines tâches, utilisez DeepSeek pour le volume et un modèle premium pour les cas critiques.
Pour les développeurs européens soucieux de la souveraineté des données, combinez un fournisseur tiers basé en UE (comme DeepInfra) pour la production, et l’API officielle DeepSeek pour le développement. Vous gardez la conformité RGPD sans sacrifier le coût.
Questions fréquentes sur l’API DeepSeek
L’API DeepSeek est-elle gratuite ?
Non, l’API est payante au token consommé ($0,28/1M tokens en input, $0,42/1M en output). Cependant, le chat web sur chat.deepseek.com est gratuit, et les poids du modèle sont sous licence MIT, ce qui signifie que vous pouvez héberger le modèle gratuitement sur votre propre infrastructure. DeepSeek offre parfois des crédits gratuits à l’inscription (vérifiez sur platform.deepseek.com). En pratique, un usage modéré coûte quelques centimes par mois.
Peut-on utiliser le SDK OpenAI avec l’API DeepSeek ?
Oui, c’est même la méthode recommandée. L’API DeepSeek est compatible avec le format OpenAI. Il suffit de changer la base_url en https://api.deepseek.com et d’utiliser votre clé API DeepSeek. Le SDK OpenAI Python (pip install openai) et le SDK Node.js (npm install openai) fonctionnent directement. C’est aussi compatible avec LangChain, LlamaIndex et tout outil qui supporte l’API OpenAI.
Quelle est la différence entre deepseek-chat et deepseek-reasoner ?
Les deux endpoints utilisent le même modèle V3.2. deepseek-chat active le mode non-thinking : réponses rapides et directes, idéal pour le chat, le code courant et la génération de contenu. deepseek-reasoner active le mode thinking : le modèle génère une chaîne de raisonnement visible avant de répondre, ce qui améliore la qualité sur les tâches de logique, maths et algorithmes. Le reasoner coûte plus cher par requête à cause des tokens de raisonnement facturés comme output.
L’API DeepSeek est-elle fiable pour la production ?
L’API a connu des incidents de disponibilité notables, notamment lors des lancements de nouveaux modèles. Pour la production, il est recommandé d’implémenter un retry avec backoff exponentiel, et d’envisager un fallback vers un fournisseur tiers (Fireworks, Together, DeepInfra) qui héberge DeepSeek sur une infrastructure plus prévisible. Le self-hosting via les poids open-weight offre la meilleure garantie de disponibilité.
Les données envoyées à l’API DeepSeek sont-elles confidentielles ?
Les serveurs de l’API officielle sont situés en Chine. La politique de confidentialité de DeepSeek indique que les données peuvent être stockées et utilisées pour améliorer les modèles. Si la confidentialité est critique, trois alternatives : utiliser un fournisseur tiers basé en US/UE avec des garanties contractuelles, déployer le modèle en local via Ollama ou vLLM (les poids sont sous licence MIT), ou activer le mode Privacy chez des fournisseurs comme Fireworks ou Together.