Polydesk-logotype
Polydesk.ai — Header

DeepSeek R1-1776 : le modèle de raisonnement décensuré par Perplexity

R1-1776 est une version de DeepSeek R1 post-entraînée par Perplexity AI pour supprimer la censure du gouvernement chinois. Le modèle conserve 100% des capacités de raisonnement de R1 (79,8% sur AIME 2024, 97,3% sur MATH-500) tout en répondant factuellement à 100% des questions sur les sujets censurés par l’original.

La censure de DeepSeek est le principal frein à son adoption en dehors de la Chine. Le modèle R1 original refuse de répondre à environ 85% des questions sur des sujets politiquement sensibles (Tiananmen, Taiwan, Tibet, Xi Jinping, etc.). R1-1776 résout ce problème par un fine-tuning ciblé qui retire le filtrage politique sans dégrader les performances. Le nom « 1776 » est une référence à la Déclaration d’indépendance américaine, symbolisant l’engagement pour la liberté d’information. Ce guide couvre tout : comment ça fonctionne, les performances, comment l’utiliser, et les limites à connaître.

Fiche rapide : R1-1776
Créateur
Perplexity AI (post-entraînement sur DeepSeek R1)
Base
DeepSeek-R1 (671B paramètres, 37B actifs)
Censure
0% (vs 85% pour R1 original)
AIME 2024
79,8% (vs 80,96% pour R1 original)
MATH-500
~97% (identique à R1 original)
Licence
MIT (usage commercial autorisé)
Accès
Hugging Face (poids) / Sonar API / OpenRouter
Date de sortie
Février 2025

Pourquoi R1-1776 existe

Perplexity est un moteur de recherche IA dont la mission est de fournir des réponses précises et factuelles à toutes les questions. Utiliser DeepSeek R1 comme moteur de raisonnement dans sa stack posait un problème évident : le modèle refusait de répondre à des questions légitimes sur des sujets géopolitiques, économiques et historiques liés à la Chine.

L’exemple le plus frappant cité par Perplexity : quand on demande à R1 original comment l’indépendance de Taiwan pourrait affecter le cours de l’action Nvidia, le modèle ignore la question financière et répond avec des éléments de langage du Parti communiste chinois sur le principe d’une seule Chine. Pour un outil de recherche financière, c’est un défaut fonctionnel majeur.

Perplexity a donc entrepris de « décensurer » R1, en créant une version qui conserve les capacités de raisonnement exceptionnelles du modèle tout en répondant factuellement à tous les sujets. Le résultat, R1-1776, est publié en open-source sous licence MIT, accessible à tous.


Comment R1-1776 a été créé

Le processus de décensuration développé par Perplexity comporte plusieurs étapes techniques :

Identification des sujets censurés

Des experts humains ont identifié environ 300 thématiques censurées par le gouvernement chinois dans DeepSeek R1. Ces sujets couvrent les événements historiques (Tiananmen, Révolution culturelle), les questions territoriales (Taiwan, Tibet, Hong Kong), les droits humains (Ouïghours, Falun Gong), la critique du leadership (Xi Jinping, PCC), et divers sujets géopolitiques.

Développement d’un classificateur multilingue

L’équipe Perplexity a développé un classificateur multilingue capable de détecter les textes liés à ces sujets sensibles. Ce classificateur permet d’identifier automatiquement les prompts susceptibles de déclencher la censure du modèle original.

Construction du dataset de fine-tuning

À partir du classificateur, l’équipe a extrait 40 000 prompts multilingues qui déclenchaient la censure avec un haut niveau de confiance. Le consentement des utilisateurs a été obtenu et les informations personnelles identifiables (PII) ont été filtrées. Pour chaque prompt censuré, des réponses factuelles avec une chaîne de raisonnement (chain-of-thought) valide ont été générées. Ce processus a été le plus délicat : il fallait sourcer des réponses de haute qualité sur des sujets que la plupart des modèles chinois refusent de traiter.

Fine-tuning avec NeMo 2.0

Le fine-tuning a été réalisé avec le framework NVIDIA NeMo 2.0, adapté pour modifier les comportements du modèle sur les sujets censurés tout en préservant les performances sur les tâches standard. L’objectif était de cibler uniquement la couche de censure, sans toucher aux capacités de raisonnement, de mathématiques et de code.

La technique utilisée est une forme de post-entraînement supervisé (SFT) ciblé. Contrairement à un fine-tuning généraliste qui modifie le comportement global du modèle, l’approche de Perplexity se concentre exclusivement sur les 300 sujets identifiés. Les 40 000 paires prompt/réponse forment un dataset relativement petit par rapport à la taille du modèle (671B paramètres), ce qui explique pourquoi les capacités générales ne sont pas affectées. Le modèle « apprend » simplement à répondre factuellement sur les sujets où il refusait auparavant, sans modifier son comportement sur le reste.

C’est une approche intéressante car elle montre que la censure, bien qu’intégrée dans les poids du modèle via le RLHF, peut être « désapprise » par un fine-tuning ciblé relativement léger. Cela suggère que la censure de DeepSeek est implémentée comme une couche comportementale ajoutée au post-entraînement, pas comme une caractéristique profonde de l’architecture.

Évaluation rigoureuse

Pour valider le résultat, Perplexity a constitué un set d’évaluation multilingue de plus de 1 000 exemples couvrant les sujets sensibles. L’évaluation combine des annotateurs humains et des juges LLM pour mesurer la probabilité que le modèle esquive ou produise des réponses « aseptisées ». Le résultat : 100% des réponses de R1-1776 sont classées comme non censurées, contre seulement 15% pour R1 original.


Performances : la censure retirée sans dégradation

C’est le point clé de R1-1776 : la suppression de la censure n’a pas dégradé les capacités du modèle. Les benchmarks le confirment :

Benchmark R1 original R1-1776 Écart
MMLU (connaissances) ~90,8% ~90,7% -0,1%
DROP (raisonnement) Élevé Identique Négligeable
MATH-500 97,3% ~97% -0,3%
AIME 2024 (maths compétition) 80,96% 79,8% -1,16%
Taux de censure ~85% 0% Suppression totale

Les scores diffèrent de quelques dixièmes de pour cent sur la plupart des benchmarks. La seule variation notable est sur AIME 2024 (-1,16 points), ce qui reste marginal. Les capacités de raisonnement, de mathématiques et de code sont intactes.

Pour contextualiser : R1-1776 à 79,8% sur AIME 2024 reste supérieur à Claude 3.5 Sonnet, GPT-4o, et la quasi-totalité des modèles propriétaires de l’époque. La légère baisse ne remet pas en question la compétitivité du modèle.

Comparaison des taux de censure R1-1776 : 0% de censure. DeepSeek R1 original : ~85%. DeepSeek V3 : ~73%. Claude 3.5 Sonnet : ~5% (principalement contenu explicite, pas politique). OpenAI o3-mini : ~1%. GPT-4o : ~0%. R1-1776 se place au même niveau que les modèles occidentaux en termes de liberté de réponse.

Comment utiliser R1-1776

Via Hugging Face (déploiement local)

Les poids du modèle sont disponibles sur huggingface.co/perplexity-ai/r1-1776 sous licence MIT. Le modèle complet (671B paramètres) nécessite une infrastructure GPU conséquente (similaire au R1 original). Pour un déploiement local, les options sont les mêmes que pour R1 standard : vLLM, SGLang, ou llama.cpp pour les versions quantizées.

Notez que R1-1776 est basé sur le R1 complet (671B), pas sur les modèles distillés. Vous ne trouverez pas de version « R1-1776:7b » ou « R1-1776:14b » officielle. Pour un usage local sur matériel grand public, les modèles distillés R1 standard via Ollama sont déjà moins censurés que la version hébergée (la censure est principalement appliquée côté serveur).

Via la Sonar API de Perplexity

R1-1776 est intégré dans la Sonar API de Perplexity. Vous pouvez y accéder directement en spécifiant le modèle dans vos appels API. La Sonar API facture typiquement à la requête (~$5/1 000 requêtes pour le search, les tarifs exacts pour R1-1776 sont à vérifier sur la documentation Perplexity).

Via OpenRouter

OpenRouter propose R1-1776 comme modèle accessible via son API multi-fournisseurs. C’est la méthode la plus simple pour tester le modèle sans gérer d’infrastructure. L’API est compatible OpenAI, ce qui permet une intégration rapide dans tout outil existant.

# Exemple d'utilisation via OpenRouter
from openai import OpenAI

client = OpenAI(
    base_url="https://openrouter.ai/api/v1",
    api_key="VOTRE_CLE_OPENROUTER"
)

response = client.chat.completions.create(
    model="perplexity/r1-1776",
    messages=[
        {"role": "user", "content": "Analysez l'impact géopolitique potentiel d'une déclaration d'indépendance de Taiwan sur les marchés financiers asiatiques."}
    ]
)
print(response.choices[0].message.content)

Avec R1 original, cette question aurait été bloquée ou répondue avec des éléments de langage du PCC. Avec R1-1776, vous obtenez une analyse factuelle complète des implications géopolitiques, économiques et financières.

Via Perplexity directement

Perplexity utilise R1-1776 dans son propre produit de recherche. Quand vous utilisez Perplexity Pro avec le mode recherche, le modèle de raisonnement sous-jacent bénéficie de la décensuration. Vous obtenez donc des réponses factuelles sur tous les sujets, combinées avec les capacités de recherche web de Perplexity.


Cas d’usage où R1-1776 fait la différence

Analyse financière et géopolitique

C’est le cas d’usage qui a motivé la création de R1-1776. L’analyse des risques géopolitiques liés à la Chine (Taiwan, mer de Chine méridionale, sanctions, guerre commerciale) est impossible avec le R1 censuré. R1-1776 permet d’évaluer l’impact potentiel d’événements géopolitiques sur les chaînes d’approvisionnement, les marchés financiers et les stratégies d’investissement sans filtrage.

Recherche et journalisme

Les chercheurs et journalistes qui travaillent sur des sujets liés à la Chine (droits humains, censure, politique intérieure, relations internationales) ont besoin d’un outil qui fournit des informations factuelles sans biais gouvernemental. R1-1776 permet d’analyser des situations complexes avec le raisonnement structuré de R1 sans le filtre politique.

Éducation et histoire

Les questions sur l’histoire moderne de la Chine (Révolution culturelle, Grand Bond en avant, Tiananmen) sont des sujets d’étude légitimes que R1 original refuse de traiter. R1-1776 fournit des réponses factuelles et équilibrées, ce qui en fait un outil adapté au contexte éducatif.

Applications destinées à un public international

Si vous développez un chatbot, un assistant ou une application de Q&A destinés à un public occidental, la censure de DeepSeek est un risque réputationnel (voir notre page censure DeepSeek). R1-1776 élimine ce risque tout en conservant les avantages de performance et de coût du modèle R1.


Limites de R1-1776

R1-1776 n’est pas une solution parfaite. Plusieurs limites méritent d’être mentionnées :

Basé sur R1, pas sur V3.2. R1-1776 a été créé à partir du R1 original (janvier 2025), pas du V3.2 (décembre 2025). Le modèle ne bénéficie donc pas des améliorations de V3.2 : Sparse Attention, tool-use intégré au thinking, pipeline agentique. Pour les tâches nécessitant ces fonctionnalités, V3.2 via l’API DeepSeek reste nécessaire (avec la censure).

Modèle complet uniquement. R1-1776 est le modèle 671B. Il n’existe pas de versions distillées officielles « 1776 » (7B, 14B, 32B). Pour le déploiement local sur matériel grand public, les distillés R1 standard via Ollama restent la seule option. Ces distillés sont déjà moins censurés que la version hébergée, mais conservent certains biais.

La censure « profonde » persiste partiellement. Des chercheurs comme Thomas Cao (Tufts University) avertissent que la censure dans les modèles chinois est multicouche : elle est intégrée dans les données d’entraînement, les biais de sélection des corpus, et les étapes d’alignement. Un fine-tuning sur 40 000 prompts peut retirer la censure la plus visible (refus de réponse, éléments de langage du PCC), mais des biais plus subtils peuvent persister dans la manière dont le modèle traite certains sujets.

Le modèle date de janvier 2025. R1-1776 est basé sur la première version de R1. Les performances de raisonnement, bien qu’excellentes, sont inférieures à celles de R1-0528 (mai 2025) qui a gagné +17 points sur AIME 2025. Perplexity n’a pas encore publié de version décensurée basée sur R1-0528 ou V3.2.


Autres modèles décensurés

R1 Slim (Multiverse Computing) : une version 55% plus petite du R1 complet, décensurée via des techniques de manipulation quantique des poids du modèle. Approche différente du fine-tuning classique de Perplexity. Performances proches de l’original, empreinte mémoire réduite.

Modèles distillés R1 en local : les versions distillées (1.5B à 70B) exécutées en local via Ollama sont nettement moins censurées que la version hébergée, car la censure la plus agressive est appliquée côté serveur. Ce n’est pas une décensuration complète, mais c’est souvent suffisant pour un usage technique.

Modèles occidentaux : si votre besoin est simplement d’avoir un LLM qui répond à tous les sujets sans filtrage politique, Claude, GPT, ou Mistral n’ont pas ce problème. R1-1776 n’est pertinent que si vous voulez spécifiquement les capacités de raisonnement de DeepSeek R1 sans la censure.


Verdict

R1-1776 est une contribution importante de Perplexity à l’écosystème IA open-source. Il démontre qu’il est possible de supprimer la censure politique d’un modèle chinois par fine-tuning ciblé, sans sacrifier les performances. Pour les cas d’usage nécessitant à la fois le raisonnement de R1 et la liberté d’information (analyse financière, recherche géopolitique, éducation, journalisme), c’est le meilleur choix disponible.

Pour les tâches purement techniques (code, maths, données) où la censure n’interfère pas, le R1 original ou V3.2 via l’API DeepSeek reste la meilleure option car plus récent et plus performant. R1-1776 est un outil de niche, mais dans cette niche, il est irremplaçable.

L’approche de Perplexity ouvre aussi la voie à d’autres projets similaires. Si la communauté peut décensurer un modèle chinois en quelques semaines avec 40 000 exemples, d’autres biais (culturels, linguistiques, techniques) dans n’importe quel modèle open-weight peuvent être corrigés de la même manière. C’est un précédent important pour la gouvernance de l’IA open-source : les modèles ne sont plus des blocs monolithiques « à prendre ou à laisser », mais des artefacts que la communauté peut adapter aux valeurs et besoins de chaque contexte d’usage.

R1-1776 prouve un point fondamental : l’open-source est un mécanisme d’auto-correction. Quand un modèle intègre des biais (qu’ils soient politiques, culturels ou techniques), la communauté peut les identifier et les corriger. C’est exactement ce que Perplexity a fait, et c’est exactement pourquoi l’open-source en IA est si important.


Questions fréquentes sur R1-1776

R1-1776 est-il aussi performant que DeepSeek R1 ?

Oui, à une marge négligeable près. Sur les quatre benchmarks principaux (MMLU, DROP, MATH-500, AIME 2024), les scores de R1-1776 diffèrent de moins de 0,3 point de pourcentage par rapport au R1 original, sauf sur AIME 2024 où l’écart est de ~1,16 points (79,8% vs 80,96%). Les capacités de raisonnement, de mathématiques et de code sont intactes. La seule différence significative est la suppression de la censure : R1-1776 répond factuellement à 100% des questions sur les sujets politiquement sensibles, contre seulement 15% pour R1 original.

Comment installer et utiliser R1-1776 ?

Trois méthodes principales. Via Hugging Face : téléchargez les poids depuis perplexity-ai/r1-1776 et déployez avec vLLM ou SGLang (nécessite une infrastructure GPU de type multi-A100/H100). Via OpenRouter : utilisez l’API compatible OpenAI avec le modèle perplexity/r1-1776 (pas d’infrastructure nécessaire, facturation par token). Via la Sonar API de Perplexity : intégrez directement dans vos applications via l’API Perplexity. Le modèle est sous licence MIT, donc l’usage commercial est autorisé sans restriction.

Peut-on faire tourner R1-1776 en local avec Ollama ?

Pas directement. R1-1776 est basé sur le R1 complet (671B paramètres), qui nécessite une infrastructure GPU de plusieurs centaines de Go. Il n’existe pas de versions distillées « 1776 » officielles compatibles Ollama. Pour un usage local accessible, les modèles distillés R1 standard (7B, 14B, 32B) via Ollama sont déjà significativement moins censurés que la version hébergée, car la censure la plus agressive est appliquée côté serveur, pas dans les poids distillés.

R1-1776 est-il complètement sans censure ?

Il est sans censure politique chinoise. Le fine-tuning de Perplexity a spécifiquement ciblé les ~300 sujets censurés par le PCC. Le modèle conserve cependant les garde-fous standards (pas de génération de contenu dangereux, d’instructions pour des actes illicites, etc.). Des chercheurs avertissent aussi que des biais plus subtils, hérités des données d’entraînement chinoises, peuvent persister même après le fine-tuning. R1-1776 est « décensuré » au sens politique, mais pas « sans aucune limite » au sens absolu.

Pourquoi le nom « 1776 » ?

1776 est l’année de la Déclaration d’indépendance des États-Unis. Perplexity, entreprise américaine, a choisi ce nom comme référence symbolique à la liberté d’expression et d’information. C’est aussi un signal clair de positionnement : le modèle est conçu pour les utilisateurs qui veulent accéder à l’information sans filtrage gouvernemental.

Polydesk.ai — Footer