DeepSeek sur Ollama : installer et utiliser les modèles en local
Ollama est le moyen le plus simple de faire tourner les modèles DeepSeek (R1, V3.2 et leurs versions distillées) sur votre propre machine, sans envoyer de données vers un serveur externe et sans frais d’API.
Faire tourner un LLM en local n’est plus réservé aux labos de recherche. Avec Ollama (version 0.18.x en mars 2026), vous téléchargez un modèle DeepSeek en une commande, et vous l’utilisez immédiatement via le terminal, une API REST locale, ou une interface web comme Open WebUI. Les modèles distillés de DeepSeek R1 (de 1,5B à 70B paramètres) fonctionnent sur du matériel grand public, et le modèle complet V3.2 (671B) est accessible en mode cloud via Ollama. Ce guide couvre tout : installation, choix du modèle, configuration matérielle, commandes, intégration API, interfaces graphiques et optimisation des performances.
- Outil
- Ollama 0.18.x (mars 2026)
- Modèles locaux
- deepseek-r1 (1.5b, 7b, 8b, 14b, 32b, 70b, 671b)
- Modèles cloud
- deepseek-v3.2:cloud
- RAM minimum
- 2 Go (modèle 1.5B) à 48 Go+ (modèle 70B)
- OS supportés
- Linux, macOS 12+, Windows 10+ (natif ou WSL2)
- GPU recommandé
- NVIDIA 8 Go+ VRAM, Apple Silicon, AMD ROCm 7.0+
- Licence
- MIT (usage commercial autorisé)
- Site
- ollama.com
Pourquoi faire tourner DeepSeek en local avec Ollama ?
Utiliser l’API DeepSeek hébergée est simple et peu coûteux ($0,28 par million de tokens en input). Mais le déploiement local offre des avantages que l’API ne peut pas garantir :
Confidentialité totale. Aucune donnée ne quitte votre machine. C’est critique pour les projets soumis au RGPD, pour le traitement de code propriétaire, ou pour toute activité où la fuite de données est inacceptable. Quand vous utilisez l’API DeepSeek, vos données transitent par des serveurs basés en Chine. En local, ce risque disparaît.
Zéro coût marginal. Une fois le modèle téléchargé, chaque requête est gratuite. Pour les applications à fort volume (tests automatisés, pipelines de CI/CD, analyse de documents en batch), les économies sont significatives par rapport au pay-per-token.
Disponibilité permanente. Pas de dépendance à un service externe, pas de rate limits, pas de downtime. L’API DeepSeek a connu des pannes notables en 2025, parfois au moment le moins opportun. En local, votre modèle est toujours disponible.
Latence réduite. L’inférence locale élimine la latence réseau. Avec un GPU correct, un modèle 14B génère 40 à 80 tokens par seconde, ce qui est souvent plus rapide qu’un appel API distant.
Personnalisation complète. Vous contrôlez la température, la longueur du contexte, le prompt système, et vous pouvez créer des Modelfiles personnalisés pour des cas d’usage spécifiques.
Modèles DeepSeek disponibles sur Ollama
Ollama propose plusieurs modèles DeepSeek dans sa bibliothèque. Voici le panorama complet :
deepseek-r1 : le modèle de raisonnement
C’est le modèle star pour l’exécution locale. DeepSeek R1 est un modèle de raisonnement qui génère une chaîne de pensée visible (chain-of-thought) avant chaque réponse. Les versions distillées sont basées sur les architectures Qwen 2.5 et Llama 3, fine-tunées sur 800 000 échantillons de raisonnement générés par le modèle R1 complet.
La dernière mise à jour (R1-0528, mai 2025) a considérablement amélioré les performances : +17 points sur AIME 2025, 45 à 50% de réduction des hallucinations, et ajout du support des appels de fonctions.
| Tag Ollama | Paramètres | Taille fichier | RAM minimum | VRAM GPU recommandée | Vitesse typique |
|---|---|---|---|---|---|
deepseek-r1:1.5b |
1,5B (Qwen) | ~1,1 Go | 2 Go | 4 Go | 60-100 t/s (GPU) |
deepseek-r1:7b |
7B (Qwen) | ~4,7 Go | 8 Go | 6 Go | 40-80 t/s |
deepseek-r1:8b |
8B (Llama) | ~4,9 Go | 8 Go | 8 Go | 40-70 t/s |
deepseek-r1:14b |
14B (Qwen) | ~9 Go | 16 Go | 12 Go | 25-50 t/s |
deepseek-r1:32b |
32B (Qwen) | ~20 Go | 32 Go | 24 Go | 15-30 t/s |
deepseek-r1:70b |
70B (Llama) | ~43 Go | 48 Go+ | 48 Go+ (multi-GPU) | 8-15 t/s |
deepseek-r1:671b |
671B (complet) | ~404 Go (Q4) | 384 Go+ | Multi-GPU enterprise | 2-8 t/s |
Les tailles de fichiers correspondent à la quantization Q4_K_M par défaut, qui offre le meilleur équilibre entre qualité et consommation mémoire. Les vitesses sont indicatives et dépendent fortement du matériel.
deepseek-r1:14b est le sweet spot. Il tient dans 12 Go de VRAM (une RTX 4060 Ti 16 Go suffit), et ses performances en raisonnement sont déjà très bonnes. Si vous avez une RTX 4090 (24 Go), le 32b offre des performances proches du R1 complet sur les benchmarks de maths et de code.
deepseek-v3.2 : le modèle généraliste (cloud)
Le modèle complet V3.2 (671B paramètres) n’est pas réalistement exécutable en local sur du matériel grand public. Ollama le propose en mode cloud (deepseek-v3.2:cloud), ce qui vous permet d’utiliser l’interface et l’API Ollama tout en faisant tourner l’inférence sur les serveurs de DeepSeek.
ollama run deepseek-v3.2:cloud
Ce mode cloud est pratique pour garder une interface unifiée (même commandes, même API), mais vous perdez les avantages de confidentialité et de coût zéro du local.
Autres modèles DeepSeek sur Ollama
La bibliothèque Ollama contient aussi deepseek-coder (spécialisé code, basé sur une version plus ancienne) et deepseek-coder-v2 (architecture MoE). Ces modèles sont techniquement obsolètes face à R1 et V3.2, mais restent utiles pour des déploiements légers orientés code.
Installation d’Ollama : étape par étape
L’installation d’Ollama est volontairement simple. Trois plateformes, trois méthodes.
Linux (Ubuntu, Debian, Fedora…)
La méthode officielle utilise un script d’installation en une ligne :
curl -fsSL https://ollama.com/install.sh | sh
Le script détecte votre distribution, installe le binaire, et configure un service systemd. Après l’installation, vérifiez :
ollama --version
# Attendu : ollama version 0.18.x
Si vous avez un GPU NVIDIA, installez le CUDA Toolkit pour activer l’accélération GPU :
# Ubuntu 22.04 / 24.04
sudo apt install nvidia-cuda-toolkit
Ollama détecte automatiquement les GPU NVIDIA. Pour vérifier que le GPU est bien utilisé, lancez un modèle puis vérifiez avec nvidia-smi dans un second terminal.
macOS
Deux options : Homebrew ou l’application native.
# Via Homebrew
brew install ollama
# Ou télécharger l'app depuis ollama.com/download
Sur Apple Silicon (M1, M2, M3, M4), Ollama utilise automatiquement l’accélération Metal via la mémoire unifiée. Un Mac Mini M4 Pro (24 Go) fait tourner confortablement les modèles 7B à 14B. Un Mac Studio M4 Ultra (192 Go) peut même exécuter le modèle R1 complet en quantization très basse.
Windows
Téléchargez l’installateur natif depuis ollama.com/download et exécutez le fichier .exe. Vérifiez ensuite dans PowerShell :
ollama --version
L’accélération GPU NVIDIA fonctionne nativement sur Windows. Pour AMD, le support est plus limité et nécessite ROCm 7.0+ (vérifiez la documentation Ollama pour la compatibilité exacte de votre carte).
Docker
Pour les environnements conteneurisés :
docker run -d
-v ollama:/root/.ollama
-p 11434:11434
--name ollama
ollama/ollama
Pour l’accélération GPU dans Docker, ajoutez --gpus all et assurez-vous que le NVIDIA Container Toolkit est installé.
Premier lancement de DeepSeek R1
Une fois Ollama installé, télécharger et lancer un modèle DeepSeek se fait en une commande :
# Télécharger et lancer le modèle 14B (recommandé pour commencer)
ollama run deepseek-r1:14b
Le premier lancement télécharge le modèle (~9 Go pour le 14B). Le temps de téléchargement dépend de votre connexion : comptez environ 8 minutes sur une connexion 150 Mbps. Les lancements suivants sont instantanés puisque le modèle est mis en cache localement.
Si vous préférez séparer le téléchargement de l’exécution :
# Télécharger sans lancer
ollama pull deepseek-r1:14b
# Vérifier les modèles installés
ollama list
# Lancer ensuite
ollama run deepseek-r1:14b
Une fois le modèle chargé, vous êtes dans une session interactive. Posez votre question directement. Avec DeepSeek R1, vous verrez apparaître un bloc <think> contenant la chaîne de raisonnement, suivi de la réponse finale.
deepseek-v3.2:cloud ou un modèle Llama/Qwen classique) est plus adapté.
Utiliser l’API REST locale d’Ollama
Ollama expose une API REST sur http://localhost:11434, compatible avec le format OpenAI. C’est ce qui rend Ollama si puissant : vous pouvez intégrer DeepSeek R1 dans n’importe quelle application, script ou pipeline qui supporte l’API OpenAI, simplement en changeant l’URL de base.
Exemple avec curl
curl http://localhost:11434/api/chat
-d '{
"model": "deepseek-r1:14b",
"messages": [
{"role": "user", "content": "Résolvez étape par étape : si un train parcourt 120 km en 1h30 puis 80 km en 1h, quelle est sa vitesse moyenne sur tout le trajet ?"}
],
"stream": false
}'
Exemple en Python
from ollama import chat
response = chat(
model='deepseek-r1:14b',
messages=[
{'role': 'user', 'content': 'Écris une fonction Python qui trie une liste par insertion.'}
]
)
print(response.message.content)
Installez la bibliothèque Python Ollama avec pip install ollama.
Compatibilité OpenAI SDK
Ollama supporte le format de l’API OpenAI, ce qui permet d’utiliser le SDK OpenAI directement :
from openai import OpenAI
client = OpenAI(
base_url='http://localhost:11434/v1',
api_key='ollama' # Ollama n'exige pas de clé, mais le SDK en veut une
)
response = client.chat.completions.create(
model='deepseek-r1:14b',
messages=[{'role': 'user', 'content': 'Votre question ici'}]
)
print(response.choices[0].message.content)
Cette compatibilité est précieuse : si votre application utilise déjà l’API OpenAI ou l’API DeepSeek, il suffit de changer le base_url pour passer en local. Aucune modification du code métier.
Configuration avancée avec les Modelfiles
Les Modelfiles permettent de créer des configurations personnalisées et réutilisables. C’est l’équivalent d’un Dockerfile pour les modèles LLM.
# Fichier : Modelfile-deepseek-custom
FROM deepseek-r1:14b
SYSTEM """Vous êtes un assistant de développement Python expert. Vous répondez toujours en français. Vous fournissez du code commenté et vous expliquez vos choix de conception."""
PARAMETER temperature 0.6
PARAMETER num_ctx 8192
PARAMETER top_p 0.9
PARAMETER num_gpu 99
Créez et lancez votre modèle personnalisé :
# Créer le modèle
ollama create deepseek-dev -f Modelfile-deepseek-custom
# Lancer
ollama run deepseek-dev
Les paramètres clés à ajuster :
| Paramètre | Description | Valeur recommandée |
|---|---|---|
temperature |
Créativité des réponses (0 = déterministe, 1 = très créatif) | 0.6 pour le code, 0.7 pour le chat |
num_ctx |
Taille de la fenêtre de contexte en tokens | 4096-8192 (attention à la VRAM) |
top_p |
Nucleus sampling | 0.9 |
num_gpu |
Nombre de couches à offloader sur le GPU | 99 (toutes les couches possibles) |
repeat_penalty |
Pénalité de répétition | 1.1 |
num_ctx impacte directement la consommation de VRAM via le cache KV. Sur un GPU de 12 Go avec un modèle 14B, rester à num_ctx 4096 ou moins évite les erreurs out-of-memory. Le cache KV croît linéairement avec la longueur du contexte : passer de 4K à 32K tokens de contexte peut ajouter plusieurs Go de consommation mémoire.
Ajouter une interface web : Open WebUI
Le terminal est efficace, mais une interface graphique type ChatGPT est plus confortable pour beaucoup d’usages. Open WebUI est la solution la plus populaire pour connecter une interface web à Ollama.
docker run -d -p 3000:8080
--add-host=host.docker.internal:host-gateway
-v open-webui:/app/backend/data
--name open-webui
ghcr.io/open-webui/open-webui:main
Ouvrez http://localhost:3000 dans votre navigateur. Créez un compte (local uniquement, pas de données envoyées), sélectionnez deepseek-r1:14b dans le menu déroulant, et vous avez une interface ChatGPT-like connectée à votre modèle local.
Open WebUI offre des fonctionnalités avancées : historique des conversations, switch entre modèles, RAG intégré (chat avec vos documents), et affichage propre du bloc <think> de R1 dans un accordéon repliable.
Alternatives à Open WebUI : Enchanted (macOS natif), Maid (mobile), SwiftChat (iOS), ou tout client compatible API OpenAI.
Optimisation des performances
Accélération GPU
Le GPU est le facteur le plus important pour la vitesse d’inférence. La différence est massive : 5 à 10 tokens/seconde en CPU-only contre 40 à 120 tokens/seconde avec un GPU adapté.
Pour les GPU NVIDIA, Ollama détecte et utilise CUDA automatiquement. Vérifiez avec :
# Lancer un modèle
ollama run deepseek-r1:14b "Bonjour"
# Dans un autre terminal, vérifier l'utilisation GPU
nvidia-smi
Si le GPU n’est pas utilisé, installez le CUDA Toolkit. Ollama gère automatiquement le « partial offloading » : si le modèle ne tient pas entièrement en VRAM, il charge ce qu’il peut sur le GPU et le reste en RAM CPU. Vous perdez de la vitesse, mais le modèle fonctionne quand même.
Pour Apple Silicon, l’accélération Metal est automatique. La mémoire unifiée est un avantage : un Mac avec 32 Go de RAM peut faire tourner des modèles qui nécessiteraient un GPU dédié de 24 Go sur PC.
Choix de la quantization
Par défaut, Ollama utilise la quantization Q4_K_M (format GGUF), qui offre le meilleur compromis qualité/mémoire. D’autres formats sont disponibles :
| Quantization | Qualité | Taille mémoire | Usage recommandé |
|---|---|---|---|
| Q4_K_M | Bonne (défaut) | ~50% du FP16 | Équilibre standard |
| Q5_K_M | Très bonne | ~60% du FP16 | Meilleure qualité si VRAM suffisante |
| Q8_0 | Excellente | ~80% du FP16 | Machines haut de gamme |
| IQ1_M / IQ2_M | Dégradée | ~20-30% du FP16 | Modèle 671B sur hardware limité |
Pour vérifier les variantes de quantization disponibles pour un modèle, consultez sa page sur ollama.com/library/deepseek-r1. Pour tirer un tag spécifique :
ollama pull deepseek-r1:14b-q5_K_M
Variables d’environnement utiles
# Garder le modèle chargé en mémoire (évite le rechargement)
export OLLAMA_KEEP_ALIVE=30m # ou -1 pour indéfiniment
# Activer Flash Attention pour les modèles compatibles
export OLLAMA_FLASH_ATTENTION=1
# Changer le port par défaut
export OLLAMA_HOST=0.0.0.0:11434 # ⚠️ Ne pas exposer sans reverse proxy authentifié
Cas d’usage concrets
Assistant de code local
DeepSeek R1 en local est particulièrement adapté au développement assisté par IA. Le modèle 14B ou 32B génère du code correct pour la majorité des tâches courantes, et le mode raisonnement aide à résoudre les problèmes algorithmiques complexes.
Vous pouvez connecter Ollama à des éditeurs comme Cursor ou des extensions VS Code (Continue, Cline) en configurant l’endpoint Ollama comme backend. Le modèle tourne en local, ce qui signifie zéro latence réseau et confidentialité de votre code.
RAG local (chat avec vos documents)
Combinez Ollama + Open WebUI pour créer un système de RAG entièrement local. Uploadez vos documents dans Open WebUI, et DeepSeek R1 les utilisera comme contexte pour répondre à vos questions. Tout reste sur votre machine.
Agents locaux
Ollama s’intègre avec des frameworks d’agents IA comme LangChain, CrewAI, ou OpenClaw. Vous pouvez créer des agents autonomes qui utilisent DeepSeek R1 en local pour le raisonnement, sans dépendance cloud. Ollama 0.18 a d’ailleurs ajouté le support de ollama launch pour connecter directement des agents comme Claude Code, Codex ou OpenClaw.
Intégration avec Cursor et les IDE
Si vous utilisez Cursor, vous pouvez le configurer pour utiliser un modèle DeepSeek local via Ollama au lieu de l’API cloud. Dans les paramètres de Cursor, ajoutez un modèle custom avec l’URL http://localhost:11434/v1 et le nom du modèle deepseek-r1:14b. C’est un excellent compromis entre coût et performances pour les développeurs qui utilisent Cursor intensivement.
Dépannage courant
L’inférence est extrêmement lente (moins de 3 tokens/seconde)
Cause probable : le modèle ne tient pas en RAM et le système utilise le swap. Vérifiez avec free -h (Linux) ou Activity Monitor (macOS). Si le swap est actif, passez à un modèle plus petit. deepseek-r1:7b ne nécessite que 8 Go de RAM.
Erreur out-of-memory ou crash CUDA
Réduisez num_ctx dans votre Modelfile (essayez 2048 ou 4096). Si le problème persiste, passez à un modèle plus petit ou activez Flash Attention avec OLLAMA_FLASH_ATTENTION=1.
Le bloc <think> est très long avant la réponse
C’est le comportement normal de R1 : il réfléchit longuement même sur des questions simples. Si vous n’avez pas besoin de raisonnement structuré, utilisez un modèle non-reasoning comme Qwen 3, Llama 4 ou Gemma 3 via Ollama.
Le téléchargement du modèle échoue
Relancez ollama pull deepseek-r1:14b. Ollama reprend les téléchargements interrompus automatiquement, sans repartir de zéro.
Le GPU NVIDIA n’est pas détecté
Vérifiez que le driver NVIDIA et le CUDA Toolkit sont installés. Sur Linux : nvidia-smi doit afficher votre GPU. Si Ollama tourne dans Docker, ajoutez --gpus all à la commande Docker.
Cas spécial : le modèle R1 complet (671B) en local
Exécuter le modèle complet R1 671B en local est techniquement possible mais nécessite du matériel sérieux. Le modèle en quantization Q4 fait environ 404 Go. En version ultra-quantizée (IQ1_M, 1,73 bits), il descend à ~158 Go, mais avec une dégradation de qualité.
Les configurations testées par la communauté :
Un setup à 4x RTX 4090 (96 Go VRAM) + 384 Go RAM DDR5 permet de faire tourner la version Q4 à 2-4 tokens/seconde. La version IQ1_M tourne à 7-8 tokens/seconde sur le même matériel. Un dual EPYC avec 384 Go de RAM sans GPU produit 5-8 tokens/seconde en CPU pur sur la version IQ4_XS. Un Mac Studio M4 Ultra (192 Go de mémoire unifiée) peut exécuter la version ultra-quantizée.
En résumé : c’est faisable pour l’expérimentation et la recherche, mais pas pour la production. Pour un usage quotidien du modèle complet, l’API DeepSeek ($0,28/1M tokens) ou le mode cloud Ollama sont infiniment plus pratiques.
Verdict
Ollama est la porte d’entrée la plus simple vers DeepSeek en local. L’installation prend 5 minutes, un seul ollama run deepseek-r1:14b vous donne accès à un modèle de raisonnement performant, et l’API compatible OpenAI s’intègre dans n’importe quel workflow existant.
Le modèle deepseek-r1:14b est notre recommandation par défaut : il offre des performances de raisonnement sérieuses dans une enveloppe de 12 Go de VRAM. Pour les machines plus puissantes, le 32B est le meilleur ratio performances/ressources de toute la gamme.
L’écosystème autour d’Ollama + DeepSeek continue de s’enrichir : intégration avec Cursor, Claude Code, OpenClaw, interfaces web, plugins de recherche web. C’est un des meilleurs setups pour qui veut garder le contrôle total sur son IA.
Notre recommandation : installez Ollama, tirez deepseek-r1:14b, et testez pendant une semaine. Si la qualité suffit pour votre cas d’usage, vous venez d’économiser 100% de vos frais d’API. Sinon, vous avez un excellent environnement de dev local qui complète vos modèles cloud.
Questions fréquentes sur DeepSeek et Ollama
Quelle est la commande pour installer DeepSeek R1 sur Ollama ?
Après avoir installé Ollama (curl -fsSL https://ollama.com/install.sh | sh sur Linux, ou téléchargement depuis ollama.com pour macOS/Windows), une seule commande suffit : ollama run deepseek-r1:14b. Cette commande télécharge le modèle (~9 Go) puis lance une session interactive. Vous pouvez remplacer 14b par 1.5b, 7b, 8b, 32b ou 70b selon votre matériel. Le tag par défaut (deepseek-r1 sans précision de taille) pointe vers le modèle 8B.
Combien de RAM faut-il pour faire tourner DeepSeek R1 en local ?
Cela dépend de la taille du modèle. Le 1.5B ne demande que 2 Go de RAM et fonctionne sur presque n’importe quelle machine. Le 7B/8B nécessite 8 Go. Le 14B tourne correctement avec 16 Go de RAM (ou 12 Go de VRAM GPU). Le 32B demande 32 Go, et le 70B au minimum 48 Go. La VRAM GPU est préférable à la RAM CPU : l’inférence est 5 à 10 fois plus rapide sur GPU. Un GPU NVIDIA avec 8 Go+ de VRAM (type RTX 3060 12 Go, RTX 4060 Ti 16 Go, ou RTX 4090) est recommandé.
DeepSeek R1 sur Ollama est-il aussi performant que l’API DeepSeek ?
Non, les modèles distillés exécutés en local (1.5B à 70B) sont des versions compressées du R1 complet (671B). Le deepseek-r1:32b atteint environ 72,6% sur AIME 2024 et 94,3% sur MATH-500, ce qui est très bon mais inférieur au R1 complet (79,8% sur AIME). L’API DeepSeek utilise le modèle V3.2 complet (671B), qui est nettement plus puissant. En revanche, en local vous gagnez la confidentialité, la latence réduite et le coût zéro par requête.
Peut-on utiliser DeepSeek V3.2 en local avec Ollama ?
Le modèle V3.2 complet (671B paramètres) est disponible sur Ollama en mode cloud uniquement (ollama run deepseek-v3.2:cloud). L’inférence se fait sur les serveurs DeepSeek, pas sur votre machine. Pour une exécution 100% locale, vous êtes limité aux modèles distillés R1 (1.5B à 70B) ou au modèle 671B si vous disposez d’un matériel exceptionnel (384 Go+ de RAM). Pour l’usage quotidien en local, deepseek-r1:14b ou deepseek-r1:32b sont les choix les plus réalistes.
Comment connecter Ollama avec DeepSeek à une interface graphique ?
La méthode la plus populaire est Open WebUI, qui se lance en une commande Docker et fournit une interface ChatGPT-like à http://localhost:3000. Elle détecte automatiquement les modèles installés dans Ollama et affiche proprement le bloc de raisonnement de R1. Alternatives : Enchanted (app macOS native), Maid (mobile), ou n’importe quel client compatible API OpenAI configuré sur http://localhost:11434/v1.