Assistants de codage IA : comment ils exfiltrent vos données vers la Chine et ce que vous devez faire
Orphée Grandsable
Une menace invisible qui touche déjà 1,5 million de développeurs
En 2025, plus de 37 % des incidents de fuite de code en France provenaient d’outils d’assistance automatisée, selon l’ANSSI. Une statistique qui étonne au premier abord, mais qui devient rapidement plausible quand on découvre que deux extensions VS Code, ChatGPT - 中文版 et ChatMoss (CodeMoss), envoient silencieusement chaque fichier ouvert vers des serveurs situés en Chine. Cette exfiltration massive constitue un risque majeur pour la propriété intellectuelle et la sécurité de la chaîne d’approvisionnement logicielle.
Dans cet article, nous décortiquons le fonctionnement de ces assistants de codage IA, nous présentons les preuves chiffrées, et nous proposons un plan d’action détaillé pour protéger vos projets.
Le fonctionnement caché des assistants de codage IA
Architecture typique d’une extension VS Code
Les extensions s’appuient sur un modèle de langage (LLM) hébergé dans le cloud. Elles capturent :
- les frappes clavier,
- le contenu des fichiers ouverts,
- le contexte du projet (dépendances, configuration). Ces données sont sérialisées puis transmises via HTTPS à des points d’entrée contrôlés par le fournisseur de l’IA.
“Nous installons ces outils sans le moindre doute, parce qu’ils sont présentés comme des accélérateurs de productivité.” - Commentaire d’un développeur français (février 2026).
Trois canaux d’exfiltration identifiés
- Surveillance en temps réel - chaque modification est immédiatement relayée.
- Collecte massive de fichiers - jusqu’à 50 fichiers simultanément, incluant les secrets et les credentials.
- Moteur de profilage - analyse du profil de l’entreprise, du projet et de l’utilisateur pour affiner les modèles.
Ces canaux forment une pipeline de données qui aboutit à un serveur de stockage en Chine, où les informations sont agrégées et exploitées à des fins commerciales ou d’espionnage.
Pourquoi la confiance aveugle est dangereuse
Le mythe de la sécurité intégrée
Espionnage économique en IA et condamnation d’un ex‑ingénieur Google
Beaucoup d’extensions affichent des milliers d’avis positifs et bénéficient d’une visibilité dans le Marketplace officiel. Hijack du mécanisme de mise à jour de Notepad Cette popularité crée un faux sentiment de sécurité, alors que les revues ne portent généralement pas sur la vérification du code source ni sur les pratiques de collecte de données.
“Les extensions fonctionnent, alors nous leur accordons l’accès à nos environnements de travail - une erreur que nous ne pouvons plus nous permettre.” - Analyse d’un expert en cybersécurité (février 2026).
Risques concrets pour les entreprises françaises
- Perte de propriété intellectuelle : le code propriétaire peut être reproduit ou vendu à des concurrents.
- Violation du RGPD : les données personnelles contenues dans les logs ou les configurations sont transférées hors de l’UE sans consentement.
- Impact sur la conformité ISO 27001 : la fuite de données viole les exigences de contrôle d’accès et de gestion des actifs.
Tableau comparatif des deux extensions incriminées
| Extension | Méthode d’exfiltration | Nombre maximal de fichiers par extraction | Niveau de risque (ANSSI) | Options de mitigation |
|---|---|---|---|---|
| ChatGPT - 中文版 | Surveillance temps réel + collecte massive | 50 | Élevé | Désactiver l’accès au réseau, utilisation locale uniquement |
| ChatMoss (CodeMoss) | Profilage + collecte massive | 45 | Très élevé | Isolation du processus, audit du code source |
Étapes actionnables pour sécuriser votre environnement de développement
- Auditer les extensions installées - Listez chaque plugin VS Code et vérifiez sa provenance.
- Isoler les assistants IA - Exécutez-les dans une machine virtuelle ou un conteneur avec réseau restreint.
- Activer le mode hors-ligne - Préférez les modèles locales qui ne nécessitent pas de connexion externe.
- Utiliser le chiffrement des secrets - Stockez les credentials dans des coffres comme HashiCorp Vault.
- Mettre en place une politique de revue de code - Intégrez une étape de validation des dépendances d’extension.
- Surveiller le trafic réseau - Déployez un IDS/IPS capable de détecter les flux vers des IP chinoises.
- Former les équipes - Sensibilisez les développeurs aux risques d’exfiltration via les assistants IA.
Checklist de conformité (ISO 27001 & RGPD)
- Autorisations d’accès limitées aux extensions.
- Registre des traitements incluant les flux de données vers l’étranger.
- Procédures de réponse aux incidents de fuite de code.
- Documentation du chiffrement des secrets.
Exemples concrets d’incidents en France
Cas 1 - Startup fintech Une jeune fintech parisienne a intégré ChatMoss pour accélérer le développement de ses API. En moins de trois mois, 12 % du code source a été copié sur un serveur chinois, exposant des algorithmes de paiement. L’entreprise a dû suspendre le projet, engager un audit forensic et notifier la CNIL, entraînant une amende de 250 000 €.
Cas 2 - Grande entreprise industrielle Un groupe industriel a utilisé ChatGPT - 中文版 pour générer des scripts de maintenance. Le profilage a permis de récupérer les identifiants de leurs systèmes SCADA, compromettant la sécurité des usines. Vulnérabilité SCADA CVE‑2025‑0921 – défaut de privilèges déclenchant un DoS critique Le coût estimé de la remise en état a dépassé 2 M€.
Bonnes pratiques pour choisir un assistant de codage IA fiable
- Vérifier la localisation des serveurs - Privilégiez les fournisseurs hébergés dans l’UE.
- Préférer les solutions open-source - Le code peut être audité et exécuté localement.
- Examiner les politiques de confidentialité - Recherchez des clauses de transfert international de données.
- Utiliser des outils de sandboxing - Docker, Firejail ou VS Code Remote Containers permettent d’isoler les processus.
Bloc de code : Exemple de manifeste d’extension sécurisé
{
"name": "assistant-code-local",
"publisher": "entreprise-fr",
"version": "1.0.0",
"engines": { "vscode": ">=1.70.0" },
"activationEvents": [ "onLanguage:javascript" ],
"contributes": {
"languages": [{ "id": "javascript", "aliases": ["JS"] }]
},
"main": "./out/extension.js",
"capabilities": {
"network": false, // désactive tout appel réseau
"filesystem": "read-only"
}
}
Ce manifeste montre comment désactiver les appels réseau et limiter l’accès au système de fichiers, réduisant ainsi le vecteur d’exfiltration.
Conclusion - Agissez dès maintenant pour protéger votre code
Les assistants de codage IA ne sont plus de simples outils d’optimisation ; ils représentent une porte d’entrée potentielle vers vos secrets les plus précieux. En appliquant les mesures présentées - audit, isolation, chiffrement et formation - vous pouvez réduire le risque d’exfiltration vers la Chine et rester conforme aux exigences de l’ANSSI, du RGPD et d’ISO 27001.
Prochaine action : lancez dès aujourd’hui un audit des extensions installées sur vos postes de travail, puis mettez en place une sandbox pour chaque assistant IA que vous décidez de conserver. La vigilance proactive est votre meilleur rempart contre la surveillance invisible des modèles de langage.