Polydesk-logotype
Polydesk.ai — Header

Prix OpenAI Codex : abonnements, crédits et tarifs API

Codex n’a pas de tarification séparée. Il est inclus dans les abonnements ChatGPT payants. Le plan Plus à $20/mois est le meilleur rapport qualité-prix pour la plupart des développeurs. Les limites d’usage sont partagées entre CLI, IDE et cloud dans une fenêtre glissante de 5 heures, et vous pouvez acheter des crédits supplémentaires si vous les dépassez.

Codex Prix : résumé rapide
Abonnement séparé ?
Non. Codex est inclus dans les plans ChatGPT payants.
Prix d’entrée
ChatGPT Plus : $20/mois (inclut Codex CLI + App + IDE + Cloud)
Premium
ChatGPT Pro : $200/mois (~6x les limites du Plus)
Équipes
Business : $25-30/user/mois. Enterprise : tarif custom.
Dépassement
Crédits supplémentaires achetables ou bascule sur clé API (facturation au token)
API (pay-as-you-go)
GPT-5.4 : ~$2,50/$15 par M tokens. GPT-5.4 mini : ~70-80% moins cher.

Comment fonctionne la tarification Codex

L’ancien API Codex (code-davinci-002) a été déprécié en mars 2023. Le Codex actuel est un produit entièrement reconstruit, intégré dans l’écosystème ChatGPT. Il n’existe pas d’abonnement « Codex » distinct : vous obtenez Codex en vous abonnant à ChatGPT.

Deux modes de facturation coexistent :

Via abonnement ChatGPT (recommandé pour la plupart des développeurs) : vous payez un prix fixe mensuel et Codex est inclus avec des limites d’usage. Quand vous utilisez l’authentification ChatGPT (la méthode par défaut), vos interactions CLI, IDE et cloud consomment votre quota sans coût supplémentaire.

Via clé API (pay-as-you-go) : vous payez au token consommé, sans limite fixe. Ce mode est adapté aux pipelines CI/CD, aux intégrations custom, et aux cas où vous dépassez régulièrement vos limites d’abonnement. Activez-le avec preferred_auth_method = "apikey" dans votre config.toml.

Les plans d’abonnement ChatGPT

PlanPrixAccès CodexLimites d’usageExtras
Free / GoGratuit / $8/moisLimité (offre temporaire)Très restreintChatGPT basique + pub (Go)
Plus$20/moisComplet (CLI + App + IDE + Cloud)Fenêtre de 5h, quotas modérésTout ChatGPT (images, vidéo, Deep Research)
Pro$200/moisComplet + Spark (research preview)~6x les limites PlusGPT-5.4 Pro, GPU dédiés
Business$25-30/user/moisCompletSimilaire à Plus (flexible pricing dispo)Données non utilisées pour le training
EnterpriseTarif customComplet + sécurité avancéeCustomSAML, SCIM, EKM, audit logs, SLA
EduTarif éducationCompletSimilaire à PlusFonctionnalités campus

Pour une durée limitée (depuis le lancement de l’app en février 2026), les plans Free et Go ont accès à Codex et tous les plans payants bénéficient de limites doublées (2x). Vérifiez sur le site OpenAI si cette offre est toujours active.

Comprendre les limites d’usage

Comment ça marche

Les limites d’usage de Codex fonctionnent par fenêtres glissantes de 5 heures. Le nombre de messages que vous pouvez envoyer dépend de plusieurs facteurs :

Le modèle utilisé : GPT-5.4 consomme plus de quota que GPT-5.4 mini. Ce dernier utilise environ 30% du quota de GPT-5.4, ce qui signifie que des tâches comparables durent environ 3,3x plus longtemps avant d’atteindre les limites.

La taille et complexité de la tâche : un petit script consomme une fraction de votre allocation, tandis qu’un codebase volumineux avec des sessions longues et beaucoup de contexte en consomme bien plus.

Le mode d’exécution : les limites pour les messages locaux (CLI, IDE) et les tâches cloud partagent la même fenêtre de 5 heures. Des limites hebdomadaires supplémentaires peuvent aussi s’appliquer.

Les configurations de vitesse augmentent la consommation de crédits pour tous les modèles applicables.

GPT-5.3-Codex-Spark : limites séparées Le modèle Spark tourne sur du matériel Cerebras spécialisé. Son usage est régi par une limite distincte qui peut varier selon la demande. Il est réservé aux abonnés ChatGPT Pro.

Que faire quand vous atteignez les limites

Trois options quand vous dépassez votre quota :

Acheter des crédits supplémentaires. Les plans Plus et Pro permettent d’acheter des crédits pour continuer sans upgrader. Les plans Business, Enterprise et Edu avec flexible pricing peuvent acheter des crédits workspace. Le coût par message en crédits varie selon le modèle, la taille de la tâche et le raisonnement requis.

Basculer sur GPT-5.4 mini. Ce modèle consomme environ 30% du quota de GPT-5.4. Pour les tâches routinières (exploration de codebase, review de fichiers volumineux, sous-agents), c’est souvent suffisant et vous prolongez significativement votre allocation.

Utiliser une clé API. Tous les utilisateurs peuvent exécuter des tâches locales supplémentaires via une clé API, facturées aux tarifs API standard. C’est un bon filet de sécurité quand votre quota est épuisé en fin de fenêtre.

Tarification API (pay-as-you-go)

Pour les équipes qui intègrent Codex dans leurs propres outils ou qui préfèrent une facturation au token :

ModèleInput / 1M tokensOutput / 1M tokensNotes
GPT-5.4≈ $2,50≈ $15,00Modèle flagship, coding + raisonnement
GPT-5.4 mini~70-80% moins cherIdemRapide, léger, idéal pour sous-agents
GPT-5.3-CodexComparable à GPT-5.4ComparableOptimisé engineering, sessions longues
codex-mini-latest≈ $1,50≈ $6,00Optimisé coding, low-latency. Cache -75%.

Le prompt caching est un levier important : les tokens en cache coûtent 50% moins cher (75% pour codex-mini-latest). Structurez vos prompts pour que le prompt système et le contexte codebase soient cachables, et vous réduirez significativement vos coûts sur les sessions répétitives.

Surcoût long contexte GPT-5.4 Au-delà de 272K tokens de contexte, GPT-5.4 applique un surcoût de 2x sur l’input ($5,00/M) et 1,5x sur l’output ($22,50/M). C’est un point à surveiller si vous travaillez sur de gros codebases. À titre de comparaison, Claude Code (Anthropic) n’applique aucun surcoût sur toute sa fenêtre de 1M tokens depuis mars 2026.

Tarification Code Review

La Code Review via Codex dans GitHub (tagger @Codex pour review dans une PR ou activer les reviews automatiques) a sa propre consommation de crédits, distincte des tâches de coding classiques. Cette consommation est incluse dans votre plan et consomme votre quota de la même manière que les autres interactions Codex.

Estimer son coût réel

Coût par profil d’usage

Voici des estimations réalistes de ce que coûte Codex selon l’intensité d’usage :

ProfilUsage typePlan recommandéCoût mensuel estimé
Débutant / occasionnel5-10 tâches/semaine, exploratoirePlus ($20/mois)$20
Dev quotidien5-15 tâches/jour, mix CLI + cloudPlus ($20/mois) + crédits ponctuels$20-40
Power user20+ tâches/jour, automations, worktreesPro ($200/mois)$200
Équipe (5 devs)Usage modéré par personneBusiness ($25-30/user/mois)$125-150
CI/CD automationPipeline scripted, usage variableAPI key (pay-as-you-go)$10-100 selon volume

Le plan Plus à $20/mois couvre confortablement la majorité des développeurs individuels. Le point de bascule vers le plan Pro se justifie quand vous achetez régulièrement plus de $50/mois de crédits supplémentaires, ou quand vous avez besoin du modèle Spark pour du prototypage ultra-rapide.

Estimer les coûts API

Pour les pipelines et intégrations en mode API, voici des ordres de grandeur pour des tâches courantes :

Un petit bug fix (lecture de quelques fichiers, modification ciblée) consomme environ 5-15K tokens d’input et 2-5K d’output, soit environ $0,02-0,10 avec GPT-5.4. Un refactoring moyen (lecture de module, réécriture multi-fichiers) consomme environ 40K tokens d’input et 6K d’output, soit environ $0,20-0,30. Une tâche complexe agentique (plan, exécution, tests, itération) peut consommer 100K+ tokens au total, soit $0,50-2,00 selon le nombre d’itérations.

Avec $20 de crédits API, vous pouvez couvrir environ 200-400 tâches de complexité modérée. Le modèle codex-mini-latest est 25% moins cher que le modèle complet et gère bien la plupart des tâches courantes. Réservez GPT-5.4 pour les refactors complexes et les décisions architecturales.

Comparaison avec la concurrence

OutilPlan d’entréePlan premiumInclus dans l’abonnement
Codex (via ChatGPT)Plus : $20/moisPro : $200/moisChatGPT complet (chat, images, vidéo, recherche)
Claude CodePro : $20/moisMax 20x : $200/moisClaude chat uniquement
CursorPro : $20/moisUltra : $200/moisIDE IA uniquement
CopilotPro : $10/moisPro+ : $39/moisComplétion + chat dans IDE

Notre analyse : au prix de $20/mois, Codex offre le meilleur rapport valeur globale car il inclut l’intégralité de l’écosystème ChatGPT en plus du coding. Copilot est le moins cher à $10/mois mais offre des capacités agentiques plus limitées. Claude Code est le plus compétitif sur la qualité de raisonnement. Cursor est le meilleur IDE IA mais les dépassements chez les utilisateurs intensifs font grimper la facture réelle à $40-50/mois.

Le facteur déterminant est souvent la générosité des quotas. Les retours communautaires indiquent que les utilisateurs Codex Plus ($20) atteignent moins souvent leurs limites que les utilisateurs Claude Pro ($20), grâce à l’efficacité token supérieure de GPT-5. Sur les plans à $200, les retours sont plus favorables à Codex Pro (limites rarement atteintes) qu’à Claude Max 20x (plafonds encore rencontrés sur les workflows intensifs avec Agent Teams).

Optimiser ses coûts Codex

Contrôler la taille des prompts

Soyez précis dans vos instructions mais supprimez le contexte inutile. Un prompt concis consomme moins de tokens qu’un prompt verbeux avec des explications superflues. Réduisez la taille de vos fichiers AGENTS.md : sur un gros projet, segmentez les instructions par sous-répertoire pour ne charger que ce qui est pertinent.

Limiter les serveurs MCP

Chaque serveur MCP connecté ajoute du contexte à vos messages et consomme plus de votre quota. Désactivez les serveurs MCP dont vous n’avez pas besoin pour la tâche en cours.

Choisir le bon modèle par tâche

GPT-5.4 mini pour les tâches routinières : exploration de code, review de fichiers, sous-agents, tâches à faible intensité de raisonnement. GPT-5.4 ou GPT-5.3-Codex pour les tâches complexes : refactoring multi-fichiers, architecture, debugging avancé. Cette stratégie peut tripler votre nombre effectif de tâches par fenêtre de 5 heures.

Utiliser .codexignore

Comme .gitignore, le fichier .codexignore exclut des répertoires et fichiers du contexte envoyé au modèle. Excluez node_modules/, dist/, coverage/, .next/, et les fichiers de lock volumineux pour réduire les tokens d’input et diminuer les coûts.

# .codexignore
node_modules/
dist/
*.lock
*.log
coverage/
.next/

Regrouper les tâches liées

Au lieu de soumettre 5 tâches séparées pour des changements liés, combinez-les en une seule instruction :

Dans le module d'authentification :
1. Ajouter la validation email à la fonction d'inscription
2. Ajouter le rate limiting au endpoint login (max 5 tentatives/min)
3. Écrire les tests unitaires pour les deux changements
4. Mettre à jour les commentaires de documentation API

Chaque tâche a un overhead fixe (setup, chargement du contexte). Regrouper réduit cet overhead et consomme moins de quota global.

Surveiller sa consommation

OpenAI fournit un dashboard d’usage sur platform.openai.com/usage pour les utilisateurs API. Pour les abonnements ChatGPT, la commande /status dans le TUI Codex affiche la consommation courante de la session. Prenez l’habitude de vérifier régulièrement, surtout en début d’adoption, pour calibrer vos workflows et éviter les mauvaises surprises en fin de fenêtre de 5 heures.

Pour les équipes sur les plans Business ou Enterprise, les audit logs et le dashboard d’usage permettent de suivre la consommation par utilisateur et d’identifier les postes de dépenses les plus importants. Les admins peuvent aussi contraindre les modes sandbox et les politiques d’approbation via requirements.toml pour prévenir les usages excessifs.

Clé API vs authentification ChatGPT : quand basculer

L’authentification ChatGPT est recommandée pour l’usage quotidien (pas de coût supplémentaire, toutes les fonctionnalités). Basculez sur la clé API dans ces cas :

Pipelines CI/CD : l’authentification interactive n’est pas possible dans un environnement headless. La clé API est la seule option.

Usage variable : si vous avez des semaines intensives suivies de semaines calmes, la facturation au token peut revenir moins cher qu’un abonnement permanent au niveau premium.

Dépassement ponctuel : plutôt que d’upgrader votre plan, utilisez la clé API comme filet de sécurité quand votre quota ChatGPT est épuisé.

Intégrations custom : si vous construisez des outils au-dessus de Codex, la clé API donne un contrôle total sur la facturation et les limites.

Coûts cachés à anticiper

Cumul d’outils

Si vous accédez à Codex via un outil tiers comme Cursor ou Windsurf, leur abonnement s’ajoute au coût OpenAI. Exemple : Cursor Pro ($20/mois) + ChatGPT Plus ($20/mois) = $40/mois au minimum. Évaluez si vous avez réellement besoin des deux, ou si l’extension Codex dans Cursor suffit à couvrir vos besoins sans double abonnement.

Workflows multi-agents

Les worktrees parallèles et les sous-agents multiplient la consommation de tokens. Trois agents en parallèle consomment environ 3x le quota d’un agent unique. Les automations récurrentes s’ajoutent aussi : un heartbeat toutes les 30 minutes pendant 10 heures, c’est 20 invocations supplémentaires par jour. Calibrez la fréquence de vos automations en fonction de votre budget.

Contexte long et surcoût

Le surcoût GPT-5.4 au-delà de 272K tokens est le piège le plus fréquent pour les gros projets. Si votre AGENTS.md est volumineux, que vous avez plusieurs serveurs MCP connectés, et que votre codebase est large, vous pouvez facilement dépasser ce seuil. Utilisez .codexignore et segmentez vos AGENTS.md pour contrôler la taille du contexte.

Le ROI est-il au rendez-vous ?

À $20-200/mois, Codex est rentable dès qu’il vous fait gagner quelques heures par mois. Les équipes OpenAI rapportent que Codex est utilisé quotidiennement pour les tâches répétitives (refactoring, renaming, tests) qui casseraient le focus d’un développeur humain. L’exemple le plus cité : l’équipe Agents SDK d’OpenAI a augmenté ses PRs mergées de 316 à 457 en trois mois (+45%) en utilisant Codex avec des skills dédiées. Pour un coût d’abonnement de $20-200/mois, le gain en productivité est généralement bien supérieur au coût, surtout pour les développeurs dont le taux horaire dépasse $50.


Questions fréquentes sur les prix Codex

Codex est-il gratuit ?

La CLI est open source et gratuite à installer. Mais pour l’utiliser, vous avez besoin d’un abonnement ChatGPT payant (à partir de $20/mois) ou d’une clé API OpenAI (facturation au token). Pour une durée limitée, les plans Free et Go ont un accès restreint à Codex. Il n’existe pas de tier gratuit permanent avec un usage significatif.

Combien coûte Codex par mois pour un développeur solo ?

Le plan ChatGPT Plus à $20/mois est suffisant pour la plupart des développeurs individuels. Il inclut Codex (CLI + app + IDE + cloud) plus tout ChatGPT. Si vous dépassez régulièrement les limites, achetez des crédits ponctuels plutôt que de passer au plan Pro ($200/mois), sauf si vous avez besoin de GPT-5.3-Codex-Spark ou de quotas 6x supérieurs.

Les limites CLI et cloud sont-elles séparées ?

Non. Les messages locaux (CLI, IDE) et les tâches cloud partagent la même fenêtre glissante de 5 heures. Une tâche cloud complexe consomme le même quota qu’une session CLI longue. Des limites hebdomadaires supplémentaires peuvent aussi s’appliquer.

Est-ce moins cher que Claude Code ?

Au prix nominal ($20 vs $20), les deux sont identiques. En pratique, les retours utilisateurs indiquent que Codex est plus généreux en quota au même prix grâce à l’efficacité token de GPT-5. De plus, l’abonnement ChatGPT inclut des fonctionnalités supplémentaires (images, vidéo, recherche) que l’abonnement Claude ne propose pas. Côté API, Claude a l’avantage du contexte long sans surcoût.

Peut-on fixer un plafond de dépenses sur l’API ?

Oui. Rendez-vous sur platform.openai.com/settings et définissez un plafond mensuel dans la section Billing. Vous pouvez aussi monitorer votre consommation en temps réel via le dashboard d’usage ou via l’API (GET /v1/usage). C’est indispensable si vous utilisez la clé API pour éviter les factures surprises.

Polydesk.ai — Footer