Polydesk-logotype
Polydesk.ai — Header

RAG (Retrieval-Augmented Generation) : guide complet

Le RAG connecte un LLM à vos données privées sans modifier le modèle. Les entreprises qui l’utilisent rapportent une réduction de 60 à 80% des hallucinations et un gain d’efficacité de 30 à 70% sur les workflows à forte composante documentaire. Ce guide couvre l’architecture, le pipeline de bout en bout, et les outils pour déployer un système RAG en production.

RAG en bref
Principe
Récupérer des documents pertinents + les injecter dans le contexte du LLM avant la génération
Avantage vs fine-tuning
Pas de réentraînement, données à jour en temps réel, sources citables
Pipeline
Chunking → Embedding → Stockage vectoriel → Recherche → Augmentation → Génération
Bases vectorielles
Pinecone, Weaviate, Chroma, Qdrant, pgvector
Frameworks
LangChain, LlamaIndex, Haystack

Pourquoi le RAG est devenu incontournable

Un LLM classique (ChatGPT, Claude, Gemini) ne connaît que ses données d’entraînement, figées à une date de coupure. Il n’a aucune connaissance de vos documents internes, de votre base clients, de vos procédures ou de vos données récentes. Quand il ne sait pas, il ne dit pas « je ne sais pas » : il invente une réponse plausible avec une confiance totale. C’est le problème des hallucinations.

Le RAG résout ce problème en ajoutant une étape de recherche avant la génération. Le système va chercher dans vos documents les informations pertinentes, les injecte dans le contexte du LLM, et le modèle génère sa réponse en s’appuyant sur ces sources. Résultat : des réponses précises, à jour, et traçables (vous savez d’où vient l’information).

C’est la différence entre un stagiaire brillant qui improvise (LLM seul) et un consultant qui consulte votre documentation avant de répondre (LLM + RAG).

Architecture d’un système RAG

Un pipeline RAG fonctionne en deux phases : l’indexation (préparation offline) et la requête (temps réel).

Phase 1 : Indexation (préparation de la base de connaissances)

1. Collecte des documents : rassemblez vos sources : PDF, documents Word, pages web, FAQ, bases de données, wikis internes, emails, transcriptions. Plus les sources sont diversifiées et à jour, meilleur sera le système.

2. Chunking (découpage) : découpez les documents en segments de 200 à 1 000 tokens. Chaque chunk doit être sémantiquement cohérent (un paragraphe, une section, une réponse FAQ complète). Le chunking est l’étape la plus critique : des chunks mal découpés produisent des résultats médiocres.

Stratégies de chunking : par paragraphe (le plus simple), par section avec chevauchement (overlap de 10-20% entre chunks adjacents pour ne pas perdre le contexte aux frontières), ou par structure sémantique (headers H2/H3 comme délimiteurs).

3. Embedding (vectorisation) : convertissez chaque chunk en un vecteur numérique (embedding) qui capture son sens sémantique. Modèles courants : OpenAI text-embedding-3-small, Cohere embed-v3, ou des modèles open source comme BGE-M3 (multilingue, exécutable localement avec Ollama).

4. Stockage dans une base vectorielle : stockez les embeddings dans une base de données optimisée pour la recherche par similarité. Les principales options :

Base vectorielle Type Prix Idéal pour
Chroma Open source, local Gratuit Prototypage, projets perso
Qdrant Open source, self-hosted/cloud Gratuit (self) / cloud payant Production, filtrage avancé
pgvector Extension PostgreSQL Gratuit Si vous utilisez déjà PostgreSQL
Pinecone Cloud managé Freemium / payant Production cloud, scaling auto
Weaviate Open source / cloud Gratuit (self) / cloud payant Recherche hybride (vecteur + texte)

Phase 2 : Requête (temps réel)

1. Embedding de la question : convertissez la question de l’utilisateur dans le même espace vectoriel que vos documents.

2. Recherche par similarité : trouvez les chunks les plus proches sémantiquement de la question (cosine similarity). Retournez les 3 à 10 chunks les plus pertinents.

3. Augmentation du prompt : combinez la question originale avec les chunks récupérés dans un prompt structuré envoyé au LLM :

Contexte : [chunks récupérés]

Question : [question de l'utilisateur]

Réponds en te basant UNIQUEMENT sur le contexte fourni. 
Si l'information n'est pas dans le contexte, dis "Je n'ai pas cette information."
Cite les sources utilisées.

4. Génération : le LLM génère une réponse ancrée dans les documents récupérés. L’instruction « uniquement sur le contexte » réduit drastiquement les hallucinations.

RAG vs Fine-tuning : quand utiliser quoi

Critère RAG Fine-tuning
Ce qu’il change Ce que le modèle sait (connaissances) Comment le modèle se comporte (style, format)
Données à jour ✅ Temps réel ❌ Figé à l’entraînement
Réentraînement ❌ Non requis ✅ Requis
Traçabilité ✅ Sources citables
Coût de mise à jour Faible (réindexation) Élevé (réentraînement)
Idéal pour FAQ, documentation, recherche Ton, format, terminologie métier

Best practice en 2026 : combinez les deux. Fine-tunez le modèle sur votre style de communication et votre format de sortie, puis utilisez le RAG pour injecter les connaissances à jour. C’est l’architecture des systèmes IA les plus fiables en production.

Outils et frameworks

LangChain : le framework le plus populaire pour construire des applications LLM, incluant des chaînes RAG complètes. Large communauté, nombreuses intégrations, mais peut être complexe et sur-ingéniéré pour des cas simples.

LlamaIndex : spécialisé dans l’indexation et la recherche de données pour le RAG. Plus simple que LangChain pour un cas d’usage purement RAG. Excellent pour les pipelines de documents.

Haystack : framework open source de deepset, orienté production. Bon pour les déploiements enterprise avec des exigences de robustesse.

n8n : l’outil no-code qui intègre des nodes RAG natifs. Vous pouvez construire un pipeline RAG complet sans écrire de code, en connectant des sources de données, un modèle d’embedding, une base vectorielle et un LLM via une interface visuelle. Idéal pour les non-développeurs.

Open WebUI + Ollama : Open WebUI intègre le RAG nativement. Uploadez vos documents, et le chatbot local les utilise comme base de connaissances. C’est le RAG le plus simple à mettre en place pour un usage personnel ou une petite équipe.

Cas d’usage concrets

Chatbot de support client : le cas d’usage numéro un. Connectez votre FAQ, votre documentation produit et votre base de connaissances. Le chatbot répond aux questions des clients en citant les articles pertinents. Résultat typique : 60-70% des tickets de niveau 1 résolus automatiquement.

Assistant juridique : indexez la jurisprudence, les textes de loi, les contrats-types. Les avocats posent des questions en langage naturel et obtiennent des réponses avec les références exactes (numéro d’article, arrêt cité). Le RAG est particulièrement adapté au domaine juridique où la traçabilité des sources est non négociable.

Base de connaissances interne : indexez les wikis internes, les procédures, les documents RH, les comptes-rendus de réunion. Les employés posent leurs questions à un chatbot au lieu de chercher pendant 30 minutes dans des dossiers partagés. Des outils comme Dust facilitent ce type de déploiement.

Recherche sur documents techniques : indexez des milliers de PDF (manuels techniques, spécifications, rapports). Le système trouve les passages pertinents dans des documents de 500 pages en quelques secondes. Plus efficace que Ctrl+F parce que la recherche est sémantique (le sens, pas juste les mots).

Compliance et audit : indexez les textes réglementaires (RGPD, AI Act, réglementations sectorielles). Le système vérifie si une pratique est conforme en citant les articles applicables. Particulièrement pertinent avec l’entrée en vigueur progressive de l’AI Act européen.

RAG avancé

Recherche hybride : combinez la recherche vectorielle (sémantique) avec la recherche par mots-clés (BM25). La recherche vectorielle excelle pour la compréhension du sens, mais peut manquer des correspondances exactes (numéros de référence, noms propres). La recherche hybride couvre les deux cas.

Re-ranking : après la recherche initiale (qui retourne 20-50 résultats), un modèle de re-ranking (Cohere Rerank, BGE-Reranker) reclasse les résultats par pertinence. Améliore significativement la qualité des réponses, surtout quand la base de connaissances est volumineuse.

Agentic RAG : le système ne se contente pas d’une seule recherche. Il évalue si les résultats sont suffisants pour répondre, et si non, formule une nouvelle requête plus ciblée. Ce processus itératif permet de traiter des questions complexes nécessitant plusieurs sources. C’est l’architecture RAG la plus avancée en 2026, mais elle nécessite un LLM puissant et des garde-fous contre la dérive.

Graph RAG (Microsoft) : au lieu de chercher des chunks isolés, Graph RAG construit un graphe de connaissances à partir des documents et navigue les relations entre concepts. Utile pour les synthèses globales (« Résume les tendances principales du rapport annuel ») plutôt que les questions ponctuelles. LazyGraphRAG a réduit les coûts d’indexation à 0,1% du Graph RAG original.

RAG multimodal : récupérez et générez à partir de texte, images, tableaux et diagrammes. Utile pour les documentations techniques avec des schémas, les rapports financiers avec des graphiques, ou les dossiers médicaux avec des images.

Déployer un RAG en production

Passer du prototype à la production nécessite d’adresser plusieurs aspects que le prototypage ignore :

Mise à jour de la base : vos documents changent. Mettez en place un pipeline d’indexation incrémentale qui détecte les nouveaux documents, les modifiés et les supprimés, et met à jour la base vectorielle en conséquence. Sans cela, votre RAG répond avec des informations obsolètes, ce qui est pire que pas de RAG du tout.

Monitoring : suivez les métriques clés en production : taux de questions sans réponse (le RAG n’a pas trouvé de contexte pertinent), taux de feedback négatif des utilisateurs, latence de recherche + génération, et coût par requête. Utilisez des outils comme LangSmith, Phoenix (Arize) ou Weights & Biases pour le tracing LLM.

Gestion des accès : dans un contexte enterprise, tous les utilisateurs ne doivent pas avoir accès à tous les documents. Implémentez un filtrage par métadonnées (département, niveau de confidentialité, projet) dans votre base vectorielle pour que chaque utilisateur ne voie que les documents qu’il est autorisé à consulter.

Fallback gracieux : quand le RAG ne trouve pas de contexte pertinent, le système doit dire « Je n’ai pas trouvé cette information dans la documentation » plutôt que de laisser le LLM improviser. Configurez un seuil de similarité en dessous duquel aucun chunk n’est retourné.

RAG et MCP : la connexion universelle

Le protocole MCP simplifie significativement le déploiement du RAG. Au lieu de construire des connecteurs custom pour chaque source de données (Google Drive, Notion, Slack, base SQL), vous utilisez des serveurs MCP qui exposent ces sources via une interface standardisée. Le LLM accède aux données via MCP, qui gère l’authentification, la pagination et le formatage.

L’avantage : quand vous ajoutez une nouvelle source de données, vous installez un serveur MCP au lieu de modifier votre pipeline RAG. C’est la tendance dominante en 2026 pour les systèmes RAG d’entreprise multi-sources.

Les pièges à éviter

Mauvais chunking : des chunks trop petits perdent le contexte, des chunks trop grands diluent l’information. Testez différentes tailles (300, 500, 800 tokens) et évaluez la qualité des réponses. Le chevauchement (overlap) entre chunks est presque toujours bénéfique.

Données de mauvaise qualité : « garbage in, garbage out » s’applique au RAG comme au fine-tuning. Des documents mal formatés, obsolètes ou contradictoires produiront des réponses médiocres. Nettoyez et maintenez votre base de connaissances.

Ignorer l’évaluation : un système RAG doit être évalué systématiquement. Utilisez des frameworks comme RAGAS (faithfulness, answer relevance, context relevance) pour mesurer la qualité. Sans évaluation, vous ne savez pas si votre système s’améliore ou se dégrade.

Confondre RAG et moteur de recherche : le RAG ne se contente pas de trouver des documents, il génère des réponses synthétisées. L’étape de génération doit être soigneusement promptée pour que le LLM utilise les sources récupérées et ne parte pas en improvisation.

Sous-estimer la maintenance : un système RAG en production n’est pas du « fire and forget ». Les documents changent, les APIs évoluent, les modèles d’embedding sont mis à jour. Prévoyez du temps d’ingénierie récurrent pour maintenir la qualité du système. Les équipes les plus efficaces traitent leur pipeline RAG comme du code : versionné, testé, et déployé avec un CI/CD.

Trop de documents, pas assez de qualité : indexer 100 000 documents dont la moitié sont obsolètes ou redondants dégrade la qualité du RAG. La pertinence du système dépend directement de la curation de la base documentaire. Mieux vaut 5 000 documents à jour et bien structurés que 50 000 documents bruts jamais nettoyés. Investissez dans la qualité de votre base avant d’investir dans l’optimisation technique.

Le RAG est à l’IA d’entreprise ce que Google a été au web : le système qui connecte les questions aux bonnes réponses. En 2026, c’est l’architecture fondamentale de tout déploiement IA sérieux.

Questions fréquentes

Le RAG nécessite-t-il de savoir coder ?

Pour un déploiement simple : non. Des outils comme Open WebUI + Ollama offrent du RAG en quelques clics (upload de documents). n8n permet de construire des pipelines RAG visuellement sans code. Pour un déploiement personnalisé en production : oui, des compétences Python et la connaissance de LangChain ou LlamaIndex sont nécessaires. Les concepts de base (chunking, embedding, recherche vectorielle) sont accessibles à tout profil technique en quelques jours d’apprentissage.

Combien coûte un système RAG ?

Un prototype : $0 (Ollama + Chroma + Open WebUI, tout local et gratuit). Un système de production basique : $50-200/mois (API embedding + base vectorielle cloud + API LLM). Un système enterprise : $500-5 000/mois selon le volume de documents, le nombre d’utilisateurs et les exigences de SLA. Le coût principal n’est pas la technologie mais la curation de la base de connaissances : maintenir des documents à jour et bien structurés demande un effort continu.

RAG ou fine-tuning : lequel choisir ?

Utilisez le RAG quand votre besoin est d’injecter des connaissances spécifiques (documentation, FAQ, données internes) sans changer le comportement du modèle. Utilisez le fine-tuning quand vous devez changer comment le modèle répond (ton, format, style, terminologie). La meilleure approche combine les deux : fine-tuning pour le comportement, RAG pour les connaissances. C’est l’architecture standard des systèmes IA de production en 2026.

Le RAG fonctionne-t-il avec des modèles locaux ?

Oui. Vous pouvez construire un système RAG 100% local avec Ollama (LLM local), un modèle d’embedding local (BGE-M3 via Ollama), et Chroma ou Qdrant en local (bases vectorielles). Aucune donnée ne quitte votre machine. C’est la solution idéale pour les données sensibles (RGPD, NDA, données de santé). La qualité sera inférieure à un RAG utilisant Claude ou GPT-5.4, mais suffisante pour de nombreux cas d’usage.

Quels documents peut-on indexer dans un RAG ?

Pratiquement tout : PDF, Word, HTML, Markdown, CSV, emails, transcriptions audio, pages web, wikis, bases de données structurées. Les formats les plus courants sont les PDF et les pages web. Les documents complexes (tableaux, images, schémas) nécessitent un traitement spécifique (OCR, extraction de tableaux) pour que le contenu soit correctement indexé. La qualité du RAG dépend directement de la qualité de l’indexation : un PDF mal parsé produit des chunks incohérents et des réponses médiocres.

Polydesk.ai — Footer