OpenAI Codex : le guide complet de l’agent de coding IA
Codex est l’agent de coding d’OpenAI. Il fonctionne en local (CLI, IDE, app desktop) et dans le cloud (via ChatGPT), peut travailler des heures de manière autonome sur des tâches complexes, et se pilote via des fichiers d’instructions AGENTS.md et des skills réutilisables. Ce guide couvre l’ensemble de l’écosystème Codex tel qu’il existe en mars 2026.
- Type
- Agent de coding IA (cloud + local)
- Modèle phare
- GPT-5.4 (flagship), GPT-5.3-Codex (optimisé coding), GPT-5.4 mini (léger)
- Surfaces
- CLI (open source), app desktop (macOS/Windows), extension IDE (VS Code, JetBrains, Xcode), cloud (ChatGPT)
- Accès
- Inclus dans ChatGPT Plus ($20/mois), Pro ($200/mois), Business, Enterprise, Edu
- Contexte
- Jusqu’à environ 1,05M tokens (API/Codex)
- Open source
- CLI open source (GitHub)
- URL
- openai.com/codex
Qu’est-ce qu’OpenAI Codex exactement ?
Codex n’est plus un simple modèle d’autocomplétion de code. C’est un écosystème complet d’agents de coding qui couvre tout le spectre, de l’édition rapide en paire avec le développeur jusqu’à l’exécution autonome de tâches complexes pendant des heures.
Le produit se décline en quatre surfaces, toutes connectées par votre compte ChatGPT :
Codex CLI : un outil en ligne de commande open source qui tourne localement sur votre machine. C’est la surface la plus flexible, celle que les développeurs utilisent au quotidien pour coder en paire avec l’IA directement dans leur terminal.
Codex App : une application desktop (macOS et Windows depuis mars 2026) conçue pour orchestrer plusieurs agents en parallèle. C’est le « centre de commande » pour le coding agentique, avec support natif des worktrees Git, des automations, et des skills.
Extension IDE : intégration directe dans VS Code, Cursor, Windsurf, JetBrains, et Xcode (via une intégration native Apple depuis février 2026). Interface interactive pour l’itération rapide locale.
Codex Cloud (Web) : accessible via chatgpt.com/codex, il exécute des tâches dans des sandboxes cloud isolées, préchargées avec votre repo GitHub. Chaque tâche tourne dans son propre environnement, de 1 à 30 minutes selon la complexité.
Les modèles Codex
Codex supporte plusieurs modèles, chacun adapté à un profil d’usage :
| Modèle | Profil | Usage recommandé |
|---|---|---|
| GPT-5.4 | Flagship, coding + raisonnement + outils | Modèle par défaut pour la plupart des tâches. Combine les capacités de GPT-5.3-Codex avec un raisonnement plus fort. |
| GPT-5.4 mini | Rapide, économique | Tâches légères, sous-agents, exploration de codebase, review de fichiers volumineux. Consomme 30% du quota de GPT-5.4. |
| GPT-5.3-Codex | Optimisé engineering | Tâches d’ingénierie complexes, refactors massifs, sessions longues (testé jusqu’à 7h+ d’exécution continue). |
| GPT-5.3-Codex-Spark Research preview | Ultra-rapide, faible latence | Prototypage rapide, itération temps réel. Réservé aux abonnés ChatGPT Pro. |
La recommandation d’OpenAI est claire : commencez par GPT-5.4 pour la plupart des tâches. Il unifie les capacités de coding, raisonnement, utilisation d’outils et workflows agentiques dans un seul modèle. Réservez GPT-5.4 mini pour les sous-agents et les tâches peu gourmandes en raisonnement, et GPT-5.3-Codex pour les tâches de pure ingénierie logicielle qui nécessitent une exécution prolongée.
Codex est aussi compatible avec d’autres modèles et fournisseurs supportant les API Chat Completions ou Responses, ce qui permet d’utiliser des modèles tiers si votre cas le nécessite.
Installation et mise en route
Installer la CLI
La CLI Codex s’installe via npm ou Homebrew :
# Via npm (recommandé)
npm i -g @openai/codex
# Via Homebrew (macOS)
brew install --cask codex
Vous pouvez aussi télécharger les binaires directement depuis les releases GitHub. Une fois installé, lancez simplement codex dans votre terminal pour démarrer.
L’authentification se fait via votre compte ChatGPT (la CLI supporte le sign-in par device code) ou une clé API OpenAI. L’authentification ChatGPT donne accès à toutes les fonctionnalités, y compris les threads cloud. Avec une clé API seule, certaines fonctionnalités comme les threads cloud peuvent être limitées.
Pour plus de détails sur l’installation, consultez notre guide d’installation Codex.
Installer l’application desktop
L’app Codex est disponible pour macOS (Apple Silicon) depuis février 2026 et pour Windows depuis le 4 mars 2026. Téléchargez-la depuis openai.com/codex, connectez-vous avec votre compte ChatGPT, et ajoutez un projet (un dossier de votre codebase).
L’app récupère automatiquement votre historique et vos configurations depuis la CLI et l’extension IDE, donc la transition est transparente si vous utilisiez déjà Codex.
Extension IDE
L’extension Codex est disponible pour VS Code, Cursor, Windsurf, et les IDE JetBrains. Elle s’installe depuis le marketplace de votre IDE. Xcode bénéficie d’une intégration native depuis Xcode 26.3 (février 2026), ajoutée directement par Apple.
AGENTS.md : les instructions de votre repo
Le concept
Les fichiers AGENTS.md sont l’équivalent Codex du README.md, mais destinés à l’agent IA plutôt qu’aux humains. Ils indiquent à Codex comment naviguer votre codebase, quelles commandes exécuter pour tester, et quelles conventions respecter.
Codex découvre automatiquement ces fichiers et les injecte dans le contexte de la conversation. L’outil est entraîné pour suivre scrupuleusement les instructions qu’ils contiennent. C’est le mécanisme principal pour personnaliser le comportement de Codex sur votre projet.
Hiérarchie des fichiers d’instructions
Les fichiers sont chargés par ordre de priorité, les fichiers les plus proches du répertoire de travail prenant le dessus :
Les instructions globales (~/.codex/) s’appliquent partout. Les instructions à la racine du repo (/AGENTS.md) définissent les règles projet. Les instructions dans les sous-répertoires (/src/AGENTS.md, /packages/api/AGENTS.md) spécialisent le comportement pour une partie du code. Chaque fichier découvert est injecté comme un message utilisateur séparé, dans l’ordre racine vers feuille.
Codex reconstruit la chaîne d’instructions à chaque lancement. Il n’y a pas de cache à purger manuellement.
Exemple d’AGENTS.md
# AGENTS.md
## Conventions de code
- TypeScript strict, pas de `any`
- Nommage : camelCase pour les variables, PascalCase pour les types
- Pas de `console.log` en production, utiliser le logger configuré
## Tests
- Lancer les tests : `pnpm test`
- Lancer le linting : `pnpm lint`
- Tout changement doit passer les tests ET le linting avant commit
## Structure du projet
- /src/api/ : endpoints REST (Express)
- /src/services/ : logique métier
- /src/models/ : schémas Prisma
- /src/utils/ : fonctions utilitaires partagées
## Règles de PR
- Titre en format Conventional Commits (feat:, fix:, refactor:)
- Description avec contexte et motivation
- Maximum 400 lignes de diff par PR
Les Skills : workflows réutilisables
Le concept
Les skills étendent Codex au-delà de la génération de code pure. Ce sont des paquets d’instructions, de scripts et de références qui enseignent à Codex comment accomplir une tâche spécifique : implémenter un design Figma, gérer un projet Linear, déployer sur Vercel, ou valider un changeset.
Une skill suit la spécification agent skills ouverte et se compose d’un répertoire contenant :
ma-skill/
SKILL.md # Obligatoire : instructions + métadonnées
scripts/ # Optionnel : code exécutable
references/ # Optionnel : documentation
assets/ # Optionnel : templates, ressources
Invocation explicite et implicite
Deux modes d’invocation existent. En mode explicite, vous tapez $nom-de-skill dans votre prompt (par exemple $skill-installer ou $create-plan). En mode implicite, Codex choisit automatiquement une skill quand votre tâche correspond à la description de la skill. Pour cette raison, la description dans le SKILL.md doit être précise sur le périmètre et les limites de la skill.
Le système utilise la divulgation progressive pour gérer le contexte efficacement : Codex charge d’abord uniquement les métadonnées (nom, description) de chaque skill, puis charge les instructions complètes seulement quand il décide d’utiliser une skill.
Installer et créer des skills
Codex intègre des skills système, dont $skill-creator (pour créer de nouvelles skills) et $skill-installer (pour en installer depuis des repos). Quelques skills prêtes à l’emploi dans la bibliothèque OpenAI :
| Skill | Usage |
|---|---|
| Figma | Récupère le contexte design et traduit les maquettes en code UI production |
| Linear | Triage de bugs, suivi de releases, gestion de la charge d’équipe |
| Cloudflare / Netlify / Vercel / Render | Déploiement d’applications sans configuration manuelle |
| $create-plan | Planification structurée avant exécution (skill expérimentale) |
Les skills s’installent dans ~/.codex/skills (personnel) ou dans .codex/skills à la racine du repo (partagé avec l’équipe). Pour en savoir plus, consultez notre page dédiée aux skills Codex.
Worktrees : agents en parallèle
Les worktrees Git sont une fonctionnalité centrale de l’app Codex. Elles permettent à plusieurs agents de travailler simultanément sur le même repo sans conflits.
Chaque agent opère sur une copie isolée de votre code dans un worktree séparé. Vous pouvez explorer différentes approches en parallèle, puis comparer les résultats et choisir la meilleure. L’app Codex encourage une « mentalité d’abondance » : lancez plusieurs agents sur le même problème avec des approches différentes, puis gardez le meilleur résultat.
En pratique, vous assignez une tâche à un thread dans l’app. L’agent travaille dans son worktree isolé pendant que vous continuez à coder sur votre branche principale. Quand l’agent termine, vous reviewez ses changements via le diff intégré, commentez, demandez des révisions, ou ouvrez une PR GitHub.
Automations : Codex sans prompt
Les automations permettent à Codex de travailler sans intervention humaine, en reprenant des tâches routinières comme le triage d’issues, le monitoring d’alertes, la gestion CI/CD, ou la création périodique de nouvelles skills.
Dans l’app Codex, vous pouvez configurer si les automations s’exécutent localement ou dans un worktree dédié, définir le niveau de raisonnement et le modèle utilisé, et utiliser des templates pour créer de nouvelles automations. Les résultats sont ajoutés à une inbox intégrée dans l’app, et les exécutions sans résultat notable sont automatiquement archivées.
Les automations combinent naturellement avec les skills : une automation peut appeler une skill spécifique à intervalles réguliers pour, par exemple, vérifier la télémétrie d’erreurs et soumettre automatiquement des correctifs.
Codex Cloud : tâches dans le sandbox
Fonctionnement
Quand vous utilisez Codex via chatgpt.com/codex (la vue web), chaque tâche s’exécute dans un container cloud isolé, préchargé avec votre repo GitHub. L’agent peut lire et modifier des fichiers, exécuter des commandes (tests, linters, type checkers), et itérer jusqu’à obtenir un résultat satisfaisant.
Par défaut, l’accès Internet est désactivé pendant l’exécution dans le sandbox cloud. L’agent ne peut interagir qu’avec le code fourni via le repo GitHub et les dépendances pré-installées via un script de setup. Vous pouvez activer l’accès réseau à des domaines de confiance si nécessaire.
Les environnements détectent automatiquement les gestionnaires de paquets courants (yarn, pnpm, npm, go mod, pip, cargo, etc.) et exécutent les commandes d’installation standard. OpenAI rapporte que cette détection automatique réduit les échecs de tests de 40% pour les nouveaux environnements.
Workflow type
Le workflow Codex Cloud suit un cycle : vous assignez une tâche → l’agent travaille (1 à 30 minutes) → vous reviewez les résultats via des citations de logs et de résultats de tests → vous demandez des révisions, ouvrez une PR GitHub, ou intégrez les changements localement.
Codex peut aussi générer plusieurs réponses simultanément pour une même tâche, vous permettant de comparer rapidement les approches et choisir la meilleure.
Code Review IA
Codex intègre des capacités de review de code alimentées par GPT-5.3-Codex (le modèle par défaut pour la review) et GPT-5.4. La review est disponible dans GitHub (via l’intégration Codex dans Agent HQ de GitHub), dans l’app desktop, et depuis la CLI.
Codex Security, en bêta privée depuis 2025, va plus loin : il construit d’abord un modèle de menaces de votre repo, puis cherche des vulnérabilités et propose des correctifs. OpenAI rapporte avoir testé l’outil sur 1,2 million de commits en 30 jours, identifiant près de 800 vulnérabilités critiques et plus de 10 000 issues de haute sévérité dans des projets comme Chromium, OpenSSL, et PHP.
Sécurité et sandboxing
La sécurité est un pilier central de Codex. Le sandboxing natif fonctionne sur toutes les surfaces (CLI, app, IDE, cloud) :
Par défaut, les agents Codex sont limités à modifier les fichiers dans le dossier ou la branche de travail, utilisent un cache de recherche web (pas d’accès direct), et demandent permission avant d’exécuter des commandes nécessitant des permissions élevées.
Vous pouvez configurer des règles par projet ou par équipe qui autorisent automatiquement certaines commandes à s’exécuter avec des permissions élevées. Trois niveaux d’approbation existent dans la CLI : suggest (le plus restrictif, propose sans exécuter), auto-edit (édite les fichiers mais demande avant d’exécuter des commandes), et full-auto (exécute tout dans le sandbox).
En cloud, l’isolation est renforcée : chaque tâche tourne dans son propre container avec accès réseau désactivé par défaut. L’agent ne peut pas accéder à des sites externes, des API, ou d’autres services sauf configuration explicite.
Intégration MCP (Model Context Protocol)
Codex supporte le protocole MCP, ce qui permet de connecter des serveurs de contexte externes pour enrichir les capacités de l’agent. La configuration MCP est partagée entre l’app, la CLI et l’extension IDE.
Quelques intégrations MCP notables : Figma (design vers code), des connecteurs de bases de données, des outils de gestion de projet (Linear, GitHub), et des serveurs MCP custom. L’app Codex inclut une section MCP dans les paramètres pour activer les serveurs recommandés ou ajouter des serveurs custom.
La CLI Codex peut aussi fonctionner elle-même comme serveur MCP, ce qui permet de l’orchestrer via le SDK Agents d’OpenAI ou d’autres frameworks agentiques.
Tarification
Via les abonnements ChatGPT
Codex est inclus dans les abonnements ChatGPT payants. Il n’existe pas d’abonnement Codex séparé :
| Plan | Prix | Accès Codex |
|---|---|---|
| Free / Go | Gratuit / $8/mois | Accès limité (temporaire, pour une durée limitée) |
| Plus | $20/mois | Codex CLI + App + Cloud + IDE. Quotas modérés. |
| Pro | $200/mois | Quotas environ 6x ceux du plan Plus. Accès à GPT-5.3-Codex-Spark. |
| Business | $25-30/user/mois | Fonctionnalités Codex + garanties données entreprise |
| Enterprise | Tarif custom | Accès complet + SLA + isolation des données |
Les limites d’usage sont partagées entre messages locaux (CLI, IDE) et tâches cloud dans une fenêtre glissante de 5 heures. Les configurations de vitesse augmentent la consommation de crédits. Si vous dépassez vos limites, vous pouvez acheter des crédits supplémentaires.
Pour une analyse détaillée des tarifs, consultez notre page prix Codex.
Via l’API (pay-as-you-go)
Si vous préférez la facturation au token, les modèles Codex sont accessibles via l’API OpenAI :
| Modèle | Input / 1M tokens | Output / 1M tokens |
|---|---|---|
| GPT-5.4 | ≈ $2,50 | ≈ $15,00 |
| GPT-5.4 mini | Environ 70-80% moins cher que GPT-5.4 | Idem |
| GPT-5.3-Codex | Comparable à GPT-5.4 | Comparable |
La CLI supporte l’authentification par clé API avec preferred_auth_method = "apikey" dans la config, ce qui active la facturation au token plutôt que la consommation de quota abonnement.
Codex vs la concurrence
| Critère | Codex (OpenAI) | Claude Code | Cursor | Copilot |
|---|---|---|---|---|
| Type | Agent cloud + local | Agent terminal-first | IDE IA natif | Plugin multi-IDE |
| Exécution parallèle | Oui (worktrees, cloud) | Oui (sous-agents) | Oui (background agents) | Oui (workspace agents) |
| Autonomie longue | Jusqu’à 7h+ en continu | Sessions longues (context 1M) | Sessions limitées | Sessions limitées |
| Open source | CLI open source | Non | Non | Non |
| App desktop dédiée | Oui (macOS + Windows) | Non (terminal) | IDE complet | Non (plugin) |
| Skills/extensibilité | Skills (SKILL.md) + MCP | Commands custom + MCP | Rules + docs | Extensions + MCP |
| Prix d’entrée | $20/mois (ChatGPT Plus) | $20/mois (Claude Pro) | $20/mois (Cursor Pro) | $10/mois (Copilot Pro) |
Notre verdict : Codex excelle sur les tâches autonomes de longue durée (refactors massifs, migrations, génération de tests) grâce à son architecture cloud et ses worktrees. Claude Code a un avantage sur le raisonnement contextuel profond avec sa fenêtre de 1M tokens sans surcoût. Cursor reste le meilleur choix si vous voulez un IDE complet avec IA intégrée pour du pair-programming en temps réel. Pour des comparaisons détaillées, consultez nos pages Codex vs Claude Code et Codex vs Cursor.
Bonnes pratiques
Structurer vos AGENTS.md
Placez les règles les plus importantes en premier. Utilisez des directives conditionnelles (« Si le changement touche le code SDK, appeler $verification« ). Gardez le fichier court et déportez les instructions spécialisées dans des skills. Testez vos instructions en demandant à Codex de les résumer : codex --ask-for-approval never "Résume les instructions actuelles."
Choisir le bon modèle par tâche
Utilisez GPT-5.4 par défaut. Passez à GPT-5.4 mini pour les sous-agents, l’exploration de code, et les tâches simples (il consomme seulement 30% du quota de GPT-5.4). Utilisez le raisonnement « medium » pour le pair-programming interactif, et « high » ou « xhigh » pour les tâches les plus complexes nécessitant une exécution prolongée.
Commencer restrictif
Démarrez en mode suggest (le plus restrictif), puis passez progressivement à auto-edit quand vous êtes à l’aise. N’utilisez full-auto que dans des environnements sandboxés que vous pouvez détruire sans conséquence. Ne donnez jamais un accès root non restreint à un agent IA.
Investir dans les skills
Les équipes qui tirent le meilleur parti de Codex sont celles qui ont investi dans des skills spécifiques à leur workflow. OpenAI documente l’exemple de leur propre maintenance du SDK Agents, où des skills comme $code-change-verification et $changeset-validation ont permis d’augmenter le nombre de PRs mergées de 316 à 457 en trois mois (+45%).
Limites connues
Codex Cloud ne supporte pas encore les inputs image pour le travail frontend (bien que GPT-5-Codex puisse afficher des screenshots dans Codex Web). La correction de trajectoire pendant l’exécution n’est pas encore possible : une fois lancé, l’agent travaille jusqu’au bout. La délégation à un agent distant est plus lente que l’édition interactive, ce qui demande un temps d’adaptation. Le modèle par défaut pour les tâches cloud ne peut pas être changé par l’utilisateur.
Sur le plan de l’écosystème, Codex est plus récent que Claude Code dans le domaine terminal-first et ne bénéficie pas encore du même niveau de personnalisation des commandes. L’app desktop est encore jeune (macOS depuis février, Windows depuis mars 2026) et des rough edges subsistent.
Questions fréquentes sur OpenAI Codex
Codex est-il gratuit ?
La CLI Codex est open source et gratuite à installer. Mais pour l’utiliser, vous devez avoir soit un abonnement ChatGPT (Plus à partir de $20/mois), soit une clé API OpenAI (facturation au token). Pour une durée limitée, OpenAI offre un accès Codex aux plans Free et Go, mais avec des limites d’usage très restreintes. En résumé : le logiciel est gratuit, l’accès aux modèles est payant.
Quelle est la différence entre Codex CLI, l’app desktop et Codex Cloud ?
La CLI est un outil terminal pour coder en paire avec l’IA localement. L’app desktop est un centre de commande pour orchestrer plusieurs agents en parallèle avec des worktrees et des automations. Codex Cloud exécute des tâches de manière autonome dans des sandboxes isolées sur les serveurs OpenAI. Les trois surfaces partagent le même compte, le même historique et les mêmes configurations.
En quoi Codex diffère-t-il de GitHub Copilot ?
Copilot est un assistant de code intégré à votre IDE qui fournit de l’autocomplétion et du chat. Codex est un agent autonome capable de travailler seul pendant des heures sur des tâches complexes (refactors multi-fichiers, migrations, génération de tests), de créer des PRs, et de gérer des workflows CI/CD. Copilot est réactif (il vous aide pendant que vous codez) ; Codex est proactif (vous lui déléguez une tâche et il la complète). Depuis février 2026, Copilot intègre aussi Codex via Agent HQ pour offrir des capacités agentiques similaires.
Peut-on utiliser Codex avec des modèles non-OpenAI ?
Oui. Codex est compatible avec tout modèle et fournisseur supportant les API Chat Completions ou Responses. Vous pouvez configurer la CLI pour utiliser des modèles tiers, bien que les optimisations spécifiques (comme le training Codex sur des tâches d’ingénierie réelles) ne s’appliquent qu’aux modèles OpenAI.
Combien coûte Codex pour un usage quotidien de développement ?
Pour un développeur individuel, le plan ChatGPT Plus à $20/mois est le meilleur rapport qualité-prix. Il inclut l’accès à toutes les surfaces Codex avec des quotas généreux. Si vous atteignez régulièrement les limites ou avez besoin des modèles les plus puissants (Spark), le plan Pro à $200/mois offre environ 6x les limites. Pour les équipes, le plan Business à $25-30/user/mois est recommandé. Via l’API, comptez $5-50/mois selon l’intensité d’usage.