Polydesk-logotype
Polydesk.ai — Header

DeepSeek dans Cursor : configurer et utiliser le modèle dans l’IDE IA

Cursor intègre nativement DeepSeek R1 et V3 depuis la version 0.44+. Vous pouvez les activer en un clic dans Settings > Models, ou les configurer manuellement via l’API DeepSeek pour un contrôle total sur les coûts.

Cursor est devenu l’IDE IA de référence pour les développeurs, avec plus d’un million d’abonnés payants en 2026. Son système de modèles multiples permet de choisir entre Claude, GPT, Gemini et d’autres modèles selon la tâche. DeepSeek s’intègre dans cet écosystème de trois façons distinctes : via les modèles intégrés hébergés par Cursor, via votre propre clé API DeepSeek, ou via un modèle local servi par Ollama. Chaque méthode a ses avantages en termes de coût, confidentialité et performances. Ce guide couvre les trois approches en détail.

Fiche rapide : DeepSeek + Cursor
Méthode 1
Modèle intégré (Settings > Models > deepseek-r1)
Méthode 2
API directe (clé DeepSeek + Base URL custom)
Méthode 3
Local via Ollama (http://localhost:11434/v1)
Modèles disponibles
deepseek-r1, deepseek-v3, deepseek-chat, deepseek-reasoner
Cursor minimum
Version 0.44+ (recommandé : dernière version)
Cursor Pro requis
Non pour l’API custom, oui pour le modèle intégré
Coût API DeepSeek
$0,28 / $0,42 par 1M tokens (input/output)

Pourquoi utiliser DeepSeek dans Cursor ?

Cursor donne accès à des modèles puissants comme Claude Sonnet 4.6, GPT-4.1 et Gemini. Pourquoi ajouter DeepSeek au mix ? Trois raisons principales :

Le coût. Depuis juin 2025, Cursor utilise un système de crédits basé sur la consommation réelle de tokens. Votre abonnement Pro ($20/mois) inclut un pool de $20 de crédits. Chaque requête avec un modèle premium (Claude Sonnet, GPT-4.1) consomme ces crédits, et les tarifs varient : environ 225 requêtes Claude Sonnet ou 550 requêtes Gemini pour $20. Si vous utilisez votre propre clé API DeepSeek, les requêtes ne touchent pas ce pool de crédits. Et avec DeepSeek V3.2 à $0,28/$0,42 par million de tokens, vous obtenez des centaines de requêtes pour quelques centimes.

Le raisonnement. DeepSeek R1 est un modèle de raisonnement qui décompose les problèmes complexes étape par étape. Pour les algorithmes difficiles, le debugging de logique complexe, ou la résolution de bugs subtils, son approche chain-of-thought peut produire des résultats que les modèles généralistes ratent.

La confidentialité. En mode Ollama local, votre code ne quitte jamais votre machine. C’est un avantage décisif pour les projets propriétaires, les entreprises soumises à des contraintes réglementaires, ou simplement les développeurs qui préfèrent garder le contrôle total.


Méthode 1 : modèle intégré Cursor (le plus simple)

C’est la méthode la plus rapide. Cursor héberge DeepSeek R1 et V3 sur des serveurs aux États-Unis (via Fireworks.ai), donc pas besoin de clé API externe.

Étapes de configuration

Vérifiez votre version de Cursor : Help > About. Vous devez être en version 0.44 ou supérieure. Si ce n’est pas le cas, mettez à jour depuis cursor.com.

Ouvrez les paramètres : Ctrl+, (Windows/Linux) ou Cmd+, (macOS), puis naviguez vers la section Models.

Cherchez deepseek-r1 et/ou deepseek-v3 dans la liste. Activez-les avec le toggle.

Ouvrez le Chat (Ctrl+L), sélectionnez le modèle DeepSeek dans le menu déroulant, et testez avec un prompt simple.

Impact sur les crédits Les modèles DeepSeek intégrés à Cursor sont traités comme des modèles non-premium. Leur consommation de crédits est faible par rapport à Claude Sonnet ou GPT-4.1. En mode Auto, Cursor peut automatiquement router vers DeepSeek quand c’est le choix optimal pour la tâche.

Limites de cette méthode

Vous dépendez de l’infrastructure Cursor/Fireworks. Si le service est lent ou indisponible, vous n’avez pas de recours. Vous n’avez pas accès aux dernières versions de DeepSeek immédiatement (par exemple, V3.2-Speciale n’est pas forcément disponible). Et votre code transite par les serveurs Cursor, ce qui peut poser problème pour les projets très sensibles (même si Cursor propose un mode Privacy).


Méthode 2 : API DeepSeek directe (contrôle total)

Cette méthode utilise votre propre clé API DeepSeek pour envoyer les requêtes directement aux serveurs DeepSeek, en contournant le proxy Cursor. Avantages : coût contrôlé, accès au dernier modèle (V3.2), et pas de consommation du pool de crédits Cursor.

Étape 1 : obtenir une clé API

Créez un compte sur platform.deepseek.com. Naviguez vers la section API Keys et générez une nouvelle clé (elle commence par sk-). Rechargez votre compte avec quelques dollars. Avec les tarifs DeepSeek ($0,28/1M tokens en input), $5 suffisent pour des milliers de requêtes.

Étape 2 : configurer Cursor

Dans Cursor, ouvrez Settings > Cursor Settings > Models.

Cliquez sur « Add model ». Entrez le nom du modèle : deepseek-chat (pour V3.2 en mode chat) ou deepseek-reasoner (pour V3.2 en mode raisonnement).

Activez le toggle « Override OpenAI Base URL » et entrez :

https://api.deepseek.com

Collez votre clé API DeepSeek dans le champ API Key.

Cliquez sur « Verify » pour confirmer la connexion. Un message de succès doit apparaître.

Le modèle apparaît maintenant dans le sélecteur de modèles du Chat, du Composer et de l’édition inline (Cmd+K).

Quel endpoint choisir ? deepseek-chat active V3.2 en mode non-thinking : réponses rapides, idéal pour le code quotidien, le refactoring et la documentation. deepseek-reasoner active V3.2 en mode thinking : raisonnement structuré, meilleur pour les algorithmes complexes et le debugging de logique. Commencez par deepseek-chat pour la plupart des tâches.

URL alternative pour FIM (Fill-in-the-Middle)

Si vous souhaitez utiliser DeepSeek pour la complétion de code inline (Tab completion), certaines configurations avancées utilisent l’URL https://api.deepseek.com/beta pour accéder aux endpoints de complétion FIM. Cette fonctionnalité est en beta et peut nécessiter des ajustements selon la version de Cursor.

Coût réel avec l’API directe

Avec l’API DeepSeek à $0,28/$0,42 par million de tokens, voici ce que coûtent des tâches typiques :

Tâche dans Cursor Tokens estimés Coût approximatif
Question simple dans le Chat ~2 000 tokens < $0,001
Refactoring d’une fonction (Cmd+K) ~5 000 tokens ~$0,003
Génération d’un composant React complet ~15 000 tokens ~$0,007
Debugging avec contexte de fichier (Composer) ~30 000 tokens ~$0,015
Analyse d’un codebase complet (Agent mode) ~100 000+ tokens ~$0,07

En pratique, un développeur actif consomme rarement plus de $1-2 par mois avec l’API DeepSeek directe. C’est une fraction de ce que coûtent les modèles premium via le pool de crédits Cursor.


Méthode 3 : DeepSeek local via Ollama (zéro coût, confidentialité totale)

Cette méthode fait tourner DeepSeek directement sur votre machine via Ollama, puis connecte Cursor à ce modèle local. Aucune donnée ne quitte votre ordinateur, et le coût par requête est de zéro.

Étape 1 : installer Ollama et tirer le modèle

# Installer Ollama (Linux)
curl -fsSL https://ollama.com/install.sh | sh

# Tirer le modèle DeepSeek R1 14B (recommandé)
ollama pull deepseek-r1:14b

# Vérifier que le serveur tourne
curl http://localhost:11434/api/version

Pour macOS et Windows, téléchargez l’installeur depuis ollama.com. Le modèle 14B nécessite environ 12 Go de VRAM GPU ou 16 Go de RAM.

Étape 2 : connecter Cursor à Ollama

Dans Cursor, ouvrez Settings > Cursor Settings > Models.

Cliquez sur « Add model » et entrez : deepseek-r1:14b

Activez « Override OpenAI Base URL » et entrez :

http://localhost:11434/v1

Dans le champ API Key, entrez n’importe quelle valeur (par exemple ollama). Ollama n’exige pas de clé d’authentification, mais Cursor demande que le champ ne soit pas vide.

Cliquez sur « Verify ». Si Ollama tourne et que le modèle est chargé, la vérification passe.

Avantages du mode local

Confidentialité absolue : votre code ne quitte jamais la machine. C’est la seule méthode qui garantit un contrôle total sur vos données.

Zéro coût marginal : pas de facture API, pas de crédits à gérer. Une fois le modèle téléchargé, chaque requête est gratuite.

Pas de latence réseau : sur un GPU correct, la réponse commence en moins d’une seconde.

Fonctionne hors ligne : pas de dépendance internet pour coder avec l’IA.

Limites du mode local

La qualité est inférieure aux modèles complets. Un deepseek-r1:14b local est un modèle distillé de 14 milliards de paramètres, là où l’API DeepSeek utilise le modèle V3.2 complet à 671 milliards. L’écart est réel, surtout sur les tâches complexes.

Le matériel compte. Sans GPU dédié (NVIDIA 8 Go+ ou Apple Silicon), l’inférence est lente (5-10 tokens/seconde en CPU). Avec un GPU adapté, vous obtenez 25-50 tokens/seconde sur le 14B.

Certaines fonctionnalités Cursor (comme Tab completion et le mode Agent avancé) peuvent ne pas fonctionner de manière optimale avec un modèle custom local.


Comparaison des trois méthodes

Critère Modèle intégré API directe Ollama local
Configuration 1 toggle 5 min (clé API + URL) 10 min (install + pull)
Qualité du modèle Bonne (hébergé Cursor) Excellente (V3.2 complet) Variable (distillé 1.5B-70B)
Coût par requête Crédits Cursor (faible) ~$0,001-0,07 $0 (gratuit)
Confidentialité Via serveurs Cursor (US) Via serveurs DeepSeek (Chine) 100% local
Latence Moyenne (réseau) Moyenne (réseau) Faible (GPU) ou haute (CPU)
Cursor Pro requis Recommandé Non (fonctionne avec Hobby) Non (fonctionne avec Hobby)
Dernier modèle dispo Dépend de Cursor Oui (V3.2 jour-même) Distillés uniquement
Mode Agent Complet Limité (selon endpoint) Limité

Bonnes pratiques pour coder avec DeepSeek dans Cursor

Quand utiliser DeepSeek vs les autres modèles

DeepSeek excelle sur les tâches où le rapport coût/performance compte. Pour le code quotidien (fonctions, composants, tests unitaires, documentation), deepseek-chat offre un résultat comparable à Claude Sonnet pour une fraction du coût. Pour les problèmes algorithmiques complexes, deepseek-reasoner rivalise avec les meilleurs modèles de raisonnement.

En revanche, pour les refactorings massifs de codebase, l’architecture de systèmes complexes, ou les tâches nécessitant un suivi d’instructions très précis, Claude Sonnet 4.6 ou GPT-4.1 restent généralement supérieurs. La meilleure stratégie : utilisez DeepSeek (via API ou local) pour 80% de vos tâches courantes, et réservez vos crédits Cursor pour les 20% de tâches complexes où la qualité premium fait la différence.

Optimiser avec .cursorrules

Les fichiers .cursorrules permettent de donner des instructions persistantes au modèle. Avec DeepSeek, ajoutez des règles spécifiques pour compenser ses limites :

# .cursorrules (exemple pour un projet Next.js)
- Toujours utiliser TypeScript strict
- Suivre les conventions du App Router Next.js 15
- Inclure les types de retour explicites sur toutes les fonctions
- Commenter le code en français
- Ne pas utiliser de bibliothèques externes sans demander confirmation
- Quand tu génères du code, vérifie qu'il compile avant de le proposer

Ces règles aident DeepSeek à produire du code plus cohérent avec votre stack et vos conventions, ce qui réduit le nombre d’itérations nécessaires.

DeepSeek dans le Composer

Le Composer de Cursor permet l’édition multi-fichiers avec visualisation des diffs. DeepSeek fonctionne bien dans ce contexte, mais quelques conseils :

Soyez explicite dans vos instructions. DeepSeek V3.2 est moins doué que Claude pour deviner vos intentions implicites. Décrivez précisément quels fichiers modifier et quel comportement vous attendez.

Pour les modifications complexes impliquant plus de 3-4 fichiers, préférez Claude Sonnet (via crédits Cursor) pour un meilleur résultat en une seule passe. DeepSeek est plus efficace sur les modifications ciblées.

Le mode Agent de Cursor fonctionne avec DeepSeek, mais les modèles distillés locaux (via Ollama) peuvent avoir du mal avec les workflows agentiques complexes impliquant de nombreux appels d’outils. L’API V3.2 complète gère mieux ces cas.

Basculer rapidement entre modèles

Cursor permet de changer de modèle à la volée dans le Chat et le Composer. Exploitez cette flexibilité :

Commencez une conversation avec deepseek-chat pour le contexte et les premières itérations (peu coûteux). Si la qualité n’est pas suffisante, basculez vers Claude Sonnet pour la suite de la même conversation (Cursor conserve le contexte). Cette approche « escalade progressive » optimise le ratio coût/qualité.


DeepSeek dans Cursor vs GitHub Copilot

La question se pose naturellement : pourquoi ne pas simplement utiliser GitHub Copilot à $10/mois dans VS Code ?

Copilot est excellent pour la complétion de code inline (Tab suggestions). C’est son point fort historique. Mais Cursor + DeepSeek offre une expérience fondamentalement différente :

La compréhension du codebase. Cursor indexe votre projet entier et peut référencer n’importe quel fichier dans ses réponses. Copilot se limite au fichier ouvert et à quelques fichiers adjacents.

Le Composer multi-fichiers. DeepSeek dans le Composer de Cursor peut modifier plusieurs fichiers en une seule opération, avec visualisation des diffs. Copilot n’a pas d’équivalent aussi intégré.

Le coût avec API directe. En utilisant l’API DeepSeek ($0,28/1M tokens), vous pouvez obtenir une assistance IA de qualité pour $1-2/mois au lieu de $10/mois pour Copilot ou $20/mois pour Cursor Pro. C’est possible en mode Hobby (gratuit) de Cursor + clé API DeepSeek.

La flexibilité modèle. Cursor vous laisse choisir le modèle par tâche. DeepSeek pour le quotidien, Claude pour les problèmes complexes, Gemini pour les contextes longs. Copilot ne donne pas ce contrôle.


Dépannage

La vérification échoue avec l’API DeepSeek

Vérifiez que votre clé API est correctement copiée (commence par sk-, pas d’espaces). Confirmez que votre compte DeepSeek a du solde. Essayez d’ajouter /v1 à la Base URL : https://api.deepseek.com/v1. Testez votre connexion réseau vers api.deepseek.com.

Les réponses de DeepSeek sont très lentes

Avec l’API hébergée : les serveurs DeepSeek peuvent être surchargés aux heures de pointe (notamment pendant les heures ouvrables en Chine). Réessayez plus tard ou basculez temporairement sur le modèle intégré Cursor.

Avec Ollama local : vérifiez que le GPU est bien utilisé (nvidia-smi). Si le modèle tourne en CPU, l’inférence sera 5 à 10 fois plus lente. Passez à un modèle plus petit (deepseek-r1:7b) si la VRAM est insuffisante.

DeepSeek n’apparaît pas dans la liste des modèles

Pour le modèle intégré : mettez à jour Cursor vers la dernière version. Les modèles DeepSeek sont disponibles depuis la version 0.44.

Pour un modèle custom : vérifiez que vous avez bien cliqué « Add model », entré le nom exact du modèle, activé l’override Base URL, et saisi la clé API. Le modèle custom est identifié par une petite icône de personnage dans le sélecteur.

Le mode reasoner génère des réponses très longues

C’est le comportement attendu de deepseek-reasoner : il génère une chaîne de raisonnement complète avant la réponse. Pour les tâches courantes, utilisez deepseek-chat (mode non-thinking) qui répond directement. Réservez le reasoner aux problèmes qui nécessitent réellement un raisonnement structuré.


Verdict

DeepSeek est un excellent complément aux modèles premium dans Cursor. La stratégie optimale pour la plupart des développeurs :

Utilisez le mode Auto de Cursor pour les tâches courantes (Tab completion, questions simples). C’est illimité sur les plans payants et Cursor choisit automatiquement le modèle le plus adapté.

Ajoutez deepseek-chat via API directe comme modèle custom pour les tâches intermédiaires : génération de code, refactoring ciblé, documentation. Le coût est négligeable ($1-2/mois) et la qualité est très bonne.

Gardez Claude Sonnet/Opus dans votre pool de crédits Cursor pour les tâches complexes : architecture multi-fichiers, debugging de logique complexe, refactorings massifs.

Ajoutez Ollama + deepseek-r1:14b si la confidentialité est prioritaire ou si vous travaillez souvent hors ligne.

Cette approche multi-modèles est exactement celle pour laquelle Cursor a été conçu. Plutôt que de tout miser sur un seul modèle coûteux, combinez DeepSeek pour le volume et les modèles premium pour la qualité. Votre pool de crédits durera bien plus longtemps.


Questions fréquentes sur DeepSeek et Cursor

DeepSeek est-il gratuit dans Cursor ?

Les modèles DeepSeek intégrés (deepseek-r1, deepseek-v3) sont accessibles dans Cursor, mais leur utilisation consomme des crédits (faiblement) de votre pool mensuel. Pour un usage véritablement gratuit, deux options : connecter votre propre clé API DeepSeek (quelques centimes par mois), ou utiliser un modèle local via Ollama (zéro coût marginal). Le plan Hobby gratuit de Cursor supporte l’ajout de modèles custom via API.

Peut-on utiliser DeepSeek sans Cursor Pro ?

Oui. Le plan Hobby (gratuit) de Cursor permet d’ajouter des modèles custom. Configurez DeepSeek via l’API directe (Base URL : https://api.deepseek.com, votre clé API) ou via Ollama local (http://localhost:11434/v1). Vous n’aurez pas accès aux modèles intégrés ni au mode Auto, mais le Chat, le Composer et l’édition inline (Cmd+K) fonctionnent avec les modèles custom.

Quel modèle DeepSeek choisir pour coder dans Cursor ?

Pour le code quotidien via API : deepseek-chat (V3.2 en mode non-thinking). Rapide, peu cher, et suffisant pour 80% des tâches de développement. Pour les problèmes algorithmiques complexes : deepseek-reasoner (V3.2 en mode thinking). Pour le local via Ollama : deepseek-r1:14b si vous avez 12 Go de VRAM, deepseek-r1:32b si vous avez 24 Go (type RTX 4090).

DeepSeek dans Cursor est-il aussi bon que Claude Sonnet ?

Pour le code quotidien, DeepSeek V3.2 produit des résultats proches de Claude Sonnet à un coût bien inférieur. Pour les tâches complexes (refactoring multi-fichiers, architecture système, suivi d’instructions subtiles), Claude Sonnet 4.6 reste supérieur. La meilleure approche est de combiner les deux : DeepSeek pour le volume, Claude pour la qualité sur les tâches critiques.

Comment passer de Cursor + DeepSeek API à Cursor + Ollama local ?

Les deux configurations coexistent. Ajoutez un second modèle custom dans Settings > Models avec la Base URL http://localhost:11434/v1 et le nom deepseek-r1:14b. Les deux modèles (API et local) apparaissent dans le sélecteur. Basculez entre eux en un clic selon le contexte : API pour la qualité maximale, local pour la confidentialité et le travail hors ligne.

Polydesk.ai — Footer