Prix OpenAI Codex : abonnements, crédits et tarifs API
Codex n’a pas de tarification séparée. Il est inclus dans les abonnements ChatGPT payants. Le plan Plus à $20/mois est le meilleur rapport qualité-prix pour la plupart des développeurs. Les limites d’usage sont partagées entre CLI, IDE et cloud dans une fenêtre glissante de 5 heures, et vous pouvez acheter des crédits supplémentaires si vous les dépassez.
- Abonnement séparé ?
- Non. Codex est inclus dans les plans ChatGPT payants.
- Prix d’entrée
- ChatGPT Plus : $20/mois (inclut Codex CLI + App + IDE + Cloud)
- Premium
- ChatGPT Pro : $200/mois (~6x les limites du Plus)
- Équipes
- Business : $25-30/user/mois. Enterprise : tarif custom.
- Dépassement
- Crédits supplémentaires achetables ou bascule sur clé API (facturation au token)
- API (pay-as-you-go)
- GPT-5.4 : ~$2,50/$15 par M tokens. GPT-5.4 mini : ~70-80% moins cher.
Comment fonctionne la tarification Codex
L’ancien API Codex (code-davinci-002) a été déprécié en mars 2023. Le Codex actuel est un produit entièrement reconstruit, intégré dans l’écosystème ChatGPT. Il n’existe pas d’abonnement « Codex » distinct : vous obtenez Codex en vous abonnant à ChatGPT.
Deux modes de facturation coexistent :
Via abonnement ChatGPT (recommandé pour la plupart des développeurs) : vous payez un prix fixe mensuel et Codex est inclus avec des limites d’usage. Quand vous utilisez l’authentification ChatGPT (la méthode par défaut), vos interactions CLI, IDE et cloud consomment votre quota sans coût supplémentaire.
Via clé API (pay-as-you-go) : vous payez au token consommé, sans limite fixe. Ce mode est adapté aux pipelines CI/CD, aux intégrations custom, et aux cas où vous dépassez régulièrement vos limites d’abonnement. Activez-le avec preferred_auth_method = "apikey" dans votre config.toml.
Les plans d’abonnement ChatGPT
| Plan | Prix | Accès Codex | Limites d’usage | Extras |
|---|---|---|---|---|
| Free / Go | Gratuit / $8/mois | Limité (offre temporaire) | Très restreint | ChatGPT basique + pub (Go) |
| Plus | $20/mois | Complet (CLI + App + IDE + Cloud) | Fenêtre de 5h, quotas modérés | Tout ChatGPT (images, vidéo, Deep Research) |
| Pro | $200/mois | Complet + Spark (research preview) | ~6x les limites Plus | GPT-5.4 Pro, GPU dédiés |
| Business | $25-30/user/mois | Complet | Similaire à Plus (flexible pricing dispo) | Données non utilisées pour le training |
| Enterprise | Tarif custom | Complet + sécurité avancée | Custom | SAML, SCIM, EKM, audit logs, SLA |
| Edu | Tarif éducation | Complet | Similaire à Plus | Fonctionnalités campus |
Pour une durée limitée (depuis le lancement de l’app en février 2026), les plans Free et Go ont accès à Codex et tous les plans payants bénéficient de limites doublées (2x). Vérifiez sur le site OpenAI si cette offre est toujours active.
Comprendre les limites d’usage
Comment ça marche
Les limites d’usage de Codex fonctionnent par fenêtres glissantes de 5 heures. Le nombre de messages que vous pouvez envoyer dépend de plusieurs facteurs :
Le modèle utilisé : GPT-5.4 consomme plus de quota que GPT-5.4 mini. Ce dernier utilise environ 30% du quota de GPT-5.4, ce qui signifie que des tâches comparables durent environ 3,3x plus longtemps avant d’atteindre les limites.
La taille et complexité de la tâche : un petit script consomme une fraction de votre allocation, tandis qu’un codebase volumineux avec des sessions longues et beaucoup de contexte en consomme bien plus.
Le mode d’exécution : les limites pour les messages locaux (CLI, IDE) et les tâches cloud partagent la même fenêtre de 5 heures. Des limites hebdomadaires supplémentaires peuvent aussi s’appliquer.
Les configurations de vitesse augmentent la consommation de crédits pour tous les modèles applicables.
Que faire quand vous atteignez les limites
Trois options quand vous dépassez votre quota :
Acheter des crédits supplémentaires. Les plans Plus et Pro permettent d’acheter des crédits pour continuer sans upgrader. Les plans Business, Enterprise et Edu avec flexible pricing peuvent acheter des crédits workspace. Le coût par message en crédits varie selon le modèle, la taille de la tâche et le raisonnement requis.
Basculer sur GPT-5.4 mini. Ce modèle consomme environ 30% du quota de GPT-5.4. Pour les tâches routinières (exploration de codebase, review de fichiers volumineux, sous-agents), c’est souvent suffisant et vous prolongez significativement votre allocation.
Utiliser une clé API. Tous les utilisateurs peuvent exécuter des tâches locales supplémentaires via une clé API, facturées aux tarifs API standard. C’est un bon filet de sécurité quand votre quota est épuisé en fin de fenêtre.
Tarification API (pay-as-you-go)
Pour les équipes qui intègrent Codex dans leurs propres outils ou qui préfèrent une facturation au token :
| Modèle | Input / 1M tokens | Output / 1M tokens | Notes |
|---|---|---|---|
| GPT-5.4 | ≈ $2,50 | ≈ $15,00 | Modèle flagship, coding + raisonnement |
| GPT-5.4 mini | ~70-80% moins cher | Idem | Rapide, léger, idéal pour sous-agents |
| GPT-5.3-Codex | Comparable à GPT-5.4 | Comparable | Optimisé engineering, sessions longues |
| codex-mini-latest | ≈ $1,50 | ≈ $6,00 | Optimisé coding, low-latency. Cache -75%. |
Le prompt caching est un levier important : les tokens en cache coûtent 50% moins cher (75% pour codex-mini-latest). Structurez vos prompts pour que le prompt système et le contexte codebase soient cachables, et vous réduirez significativement vos coûts sur les sessions répétitives.
Tarification Code Review
La Code Review via Codex dans GitHub (tagger @Codex pour review dans une PR ou activer les reviews automatiques) a sa propre consommation de crédits, distincte des tâches de coding classiques. Cette consommation est incluse dans votre plan et consomme votre quota de la même manière que les autres interactions Codex.
Estimer son coût réel
Coût par profil d’usage
Voici des estimations réalistes de ce que coûte Codex selon l’intensité d’usage :
| Profil | Usage type | Plan recommandé | Coût mensuel estimé |
|---|---|---|---|
| Débutant / occasionnel | 5-10 tâches/semaine, exploratoire | Plus ($20/mois) | $20 |
| Dev quotidien | 5-15 tâches/jour, mix CLI + cloud | Plus ($20/mois) + crédits ponctuels | $20-40 |
| Power user | 20+ tâches/jour, automations, worktrees | Pro ($200/mois) | $200 |
| Équipe (5 devs) | Usage modéré par personne | Business ($25-30/user/mois) | $125-150 |
| CI/CD automation | Pipeline scripted, usage variable | API key (pay-as-you-go) | $10-100 selon volume |
Le plan Plus à $20/mois couvre confortablement la majorité des développeurs individuels. Le point de bascule vers le plan Pro se justifie quand vous achetez régulièrement plus de $50/mois de crédits supplémentaires, ou quand vous avez besoin du modèle Spark pour du prototypage ultra-rapide.
Estimer les coûts API
Pour les pipelines et intégrations en mode API, voici des ordres de grandeur pour des tâches courantes :
Un petit bug fix (lecture de quelques fichiers, modification ciblée) consomme environ 5-15K tokens d’input et 2-5K d’output, soit environ $0,02-0,10 avec GPT-5.4. Un refactoring moyen (lecture de module, réécriture multi-fichiers) consomme environ 40K tokens d’input et 6K d’output, soit environ $0,20-0,30. Une tâche complexe agentique (plan, exécution, tests, itération) peut consommer 100K+ tokens au total, soit $0,50-2,00 selon le nombre d’itérations.
Avec $20 de crédits API, vous pouvez couvrir environ 200-400 tâches de complexité modérée. Le modèle codex-mini-latest est 25% moins cher que le modèle complet et gère bien la plupart des tâches courantes. Réservez GPT-5.4 pour les refactors complexes et les décisions architecturales.
Comparaison avec la concurrence
| Outil | Plan d’entrée | Plan premium | Inclus dans l’abonnement |
|---|---|---|---|
| Codex (via ChatGPT) | Plus : $20/mois | Pro : $200/mois | ChatGPT complet (chat, images, vidéo, recherche) |
| Claude Code | Pro : $20/mois | Max 20x : $200/mois | Claude chat uniquement |
| Cursor | Pro : $20/mois | Ultra : $200/mois | IDE IA uniquement |
| Copilot | Pro : $10/mois | Pro+ : $39/mois | Complétion + chat dans IDE |
Notre analyse : au prix de $20/mois, Codex offre le meilleur rapport valeur globale car il inclut l’intégralité de l’écosystème ChatGPT en plus du coding. Copilot est le moins cher à $10/mois mais offre des capacités agentiques plus limitées. Claude Code est le plus compétitif sur la qualité de raisonnement. Cursor est le meilleur IDE IA mais les dépassements chez les utilisateurs intensifs font grimper la facture réelle à $40-50/mois.
Le facteur déterminant est souvent la générosité des quotas. Les retours communautaires indiquent que les utilisateurs Codex Plus ($20) atteignent moins souvent leurs limites que les utilisateurs Claude Pro ($20), grâce à l’efficacité token supérieure de GPT-5. Sur les plans à $200, les retours sont plus favorables à Codex Pro (limites rarement atteintes) qu’à Claude Max 20x (plafonds encore rencontrés sur les workflows intensifs avec Agent Teams).
Optimiser ses coûts Codex
Contrôler la taille des prompts
Soyez précis dans vos instructions mais supprimez le contexte inutile. Un prompt concis consomme moins de tokens qu’un prompt verbeux avec des explications superflues. Réduisez la taille de vos fichiers AGENTS.md : sur un gros projet, segmentez les instructions par sous-répertoire pour ne charger que ce qui est pertinent.
Limiter les serveurs MCP
Chaque serveur MCP connecté ajoute du contexte à vos messages et consomme plus de votre quota. Désactivez les serveurs MCP dont vous n’avez pas besoin pour la tâche en cours.
Choisir le bon modèle par tâche
GPT-5.4 mini pour les tâches routinières : exploration de code, review de fichiers, sous-agents, tâches à faible intensité de raisonnement. GPT-5.4 ou GPT-5.3-Codex pour les tâches complexes : refactoring multi-fichiers, architecture, debugging avancé. Cette stratégie peut tripler votre nombre effectif de tâches par fenêtre de 5 heures.
Utiliser .codexignore
Comme .gitignore, le fichier .codexignore exclut des répertoires et fichiers du contexte envoyé au modèle. Excluez node_modules/, dist/, coverage/, .next/, et les fichiers de lock volumineux pour réduire les tokens d’input et diminuer les coûts.
# .codexignore
node_modules/
dist/
*.lock
*.log
coverage/
.next/
Regrouper les tâches liées
Au lieu de soumettre 5 tâches séparées pour des changements liés, combinez-les en une seule instruction :
Dans le module d'authentification :
1. Ajouter la validation email à la fonction d'inscription
2. Ajouter le rate limiting au endpoint login (max 5 tentatives/min)
3. Écrire les tests unitaires pour les deux changements
4. Mettre à jour les commentaires de documentation API
Chaque tâche a un overhead fixe (setup, chargement du contexte). Regrouper réduit cet overhead et consomme moins de quota global.
Surveiller sa consommation
OpenAI fournit un dashboard d’usage sur platform.openai.com/usage pour les utilisateurs API. Pour les abonnements ChatGPT, la commande /status dans le TUI Codex affiche la consommation courante de la session. Prenez l’habitude de vérifier régulièrement, surtout en début d’adoption, pour calibrer vos workflows et éviter les mauvaises surprises en fin de fenêtre de 5 heures.
Pour les équipes sur les plans Business ou Enterprise, les audit logs et le dashboard d’usage permettent de suivre la consommation par utilisateur et d’identifier les postes de dépenses les plus importants. Les admins peuvent aussi contraindre les modes sandbox et les politiques d’approbation via requirements.toml pour prévenir les usages excessifs.
Clé API vs authentification ChatGPT : quand basculer
L’authentification ChatGPT est recommandée pour l’usage quotidien (pas de coût supplémentaire, toutes les fonctionnalités). Basculez sur la clé API dans ces cas :
Pipelines CI/CD : l’authentification interactive n’est pas possible dans un environnement headless. La clé API est la seule option.
Usage variable : si vous avez des semaines intensives suivies de semaines calmes, la facturation au token peut revenir moins cher qu’un abonnement permanent au niveau premium.
Dépassement ponctuel : plutôt que d’upgrader votre plan, utilisez la clé API comme filet de sécurité quand votre quota ChatGPT est épuisé.
Intégrations custom : si vous construisez des outils au-dessus de Codex, la clé API donne un contrôle total sur la facturation et les limites.
Coûts cachés à anticiper
Cumul d’outils
Si vous accédez à Codex via un outil tiers comme Cursor ou Windsurf, leur abonnement s’ajoute au coût OpenAI. Exemple : Cursor Pro ($20/mois) + ChatGPT Plus ($20/mois) = $40/mois au minimum. Évaluez si vous avez réellement besoin des deux, ou si l’extension Codex dans Cursor suffit à couvrir vos besoins sans double abonnement.
Workflows multi-agents
Les worktrees parallèles et les sous-agents multiplient la consommation de tokens. Trois agents en parallèle consomment environ 3x le quota d’un agent unique. Les automations récurrentes s’ajoutent aussi : un heartbeat toutes les 30 minutes pendant 10 heures, c’est 20 invocations supplémentaires par jour. Calibrez la fréquence de vos automations en fonction de votre budget.
Contexte long et surcoût
Le surcoût GPT-5.4 au-delà de 272K tokens est le piège le plus fréquent pour les gros projets. Si votre AGENTS.md est volumineux, que vous avez plusieurs serveurs MCP connectés, et que votre codebase est large, vous pouvez facilement dépasser ce seuil. Utilisez .codexignore et segmentez vos AGENTS.md pour contrôler la taille du contexte.
Le ROI est-il au rendez-vous ?
À $20-200/mois, Codex est rentable dès qu’il vous fait gagner quelques heures par mois. Les équipes OpenAI rapportent que Codex est utilisé quotidiennement pour les tâches répétitives (refactoring, renaming, tests) qui casseraient le focus d’un développeur humain. L’exemple le plus cité : l’équipe Agents SDK d’OpenAI a augmenté ses PRs mergées de 316 à 457 en trois mois (+45%) en utilisant Codex avec des skills dédiées. Pour un coût d’abonnement de $20-200/mois, le gain en productivité est généralement bien supérieur au coût, surtout pour les développeurs dont le taux horaire dépasse $50.
Questions fréquentes sur les prix Codex
Codex est-il gratuit ?
La CLI est open source et gratuite à installer. Mais pour l’utiliser, vous avez besoin d’un abonnement ChatGPT payant (à partir de $20/mois) ou d’une clé API OpenAI (facturation au token). Pour une durée limitée, les plans Free et Go ont un accès restreint à Codex. Il n’existe pas de tier gratuit permanent avec un usage significatif.
Combien coûte Codex par mois pour un développeur solo ?
Le plan ChatGPT Plus à $20/mois est suffisant pour la plupart des développeurs individuels. Il inclut Codex (CLI + app + IDE + cloud) plus tout ChatGPT. Si vous dépassez régulièrement les limites, achetez des crédits ponctuels plutôt que de passer au plan Pro ($200/mois), sauf si vous avez besoin de GPT-5.3-Codex-Spark ou de quotas 6x supérieurs.
Les limites CLI et cloud sont-elles séparées ?
Non. Les messages locaux (CLI, IDE) et les tâches cloud partagent la même fenêtre glissante de 5 heures. Une tâche cloud complexe consomme le même quota qu’une session CLI longue. Des limites hebdomadaires supplémentaires peuvent aussi s’appliquer.
Est-ce moins cher que Claude Code ?
Au prix nominal ($20 vs $20), les deux sont identiques. En pratique, les retours utilisateurs indiquent que Codex est plus généreux en quota au même prix grâce à l’efficacité token de GPT-5. De plus, l’abonnement ChatGPT inclut des fonctionnalités supplémentaires (images, vidéo, recherche) que l’abonnement Claude ne propose pas. Côté API, Claude a l’avantage du contexte long sans surcoût.
Peut-on fixer un plafond de dépenses sur l’API ?
Oui. Rendez-vous sur platform.openai.com/settings et définissez un plafond mensuel dans la section Billing. Vous pouvez aussi monitorer votre consommation en temps réel via le dashboard d’usage ou via l’API (GET /v1/usage). C’est indispensable si vous utilisez la clé API pour éviter les factures surprises.