
MCP (Model Context Protocol) : le “USB-C des apps d’IA” d’Anthropic — ce qu’il change vraiment
MCP est un protocole ouvert pour connecter proprement un assistant IA à vos données, outils et applications. Il standardise trois primitives (tools, resources, prompts), s’appuie sur JSON-RPC 2.0 avec transports stdio et HTTP/SSE, et formalise une architecture host ↔ client ↔ server. Supporté dans Claude Desktop (serveurs locaux) et, depuis 2025, via des serveurs MCP distants. L’objectif : moins d’intégrations ad hoc, plus d’interopérabilité et un contrôle clair des permissions.
Pourquoi MCP compte
Le problème que MCP résout : chaque assistant devait intégrer au cas par cas chaque API, base de données, drive, etc. MCP propose un langage commun pour brancher les modèles sur les systèmes où vivent les données (IDE, outils métier, SaaS). Résultat : moins d’intégrations “ad hoc”, plus d’interopérabilité et un contrôle clair des permissions. Anthropic l’a open-sourcé le 25 novembre 2024.
Les bases (en 60 secondes)
- Architecture :
Host (l’app qui pilote le LLM) ↔ Clients (connecteurs) ↔ Servers (ils exposent capacités et contexte). - Transports & format :
JSON-RPC 2.0 comme format de messages ; transports standard stdio et HTTP (dont SSE). - Primitives :
Tools (actions), Resources (données lisibles), Prompts (modèles de messages réutilisables). - “USB-C de l’IA” :
l’analogie officielle d’Anthropic pour expliquer le standard.
Ce qui est nouveau / différenciant
-
Découverte et schémas
Les servers MCP annoncent leurs tools/resources/prompts (avec schémas) que le host peut présenter à l’utilisateur ou injecter dans le contexte du modèle. -
Sampling (agentic)
Un serveur peut demander au client d’appeler un LLM (avec validation humaine), ce qui permet des boucles d’agent plus sûres et traçables sans gérer des clés côté serveur. -
Roots (périmètres de fichiers/URI)
Le client expose des “racines” qui bornent où le serveur peut agir (ex. un dossier projet), renforçant sécurité et confinement.
Écosystème & adoption (printemps 2025)
- OpenAI annonce l’adoption de MCP (Agents SDK, Responses API, etc.).
- Google/DeepMind confirme un support MCP côté Gemini/SDK.
- Microsoft/Windows prépare un support MCP au niveau OS (“le USB-C des apps d’IA”).
- Claude : des serveurs locaux via Claude Desktop et, depuis mai 2025, des intégrations distantes (serveurs MCP hébergés).
Pour les développeurs : comment on s’en sert
-
Démarrer
Parcourez la spec et les SDK (TypeScript/Python), puis testez des serveurs de référence (GitHub, Postgres, Slack, etc.). -
Pattern type
- Le client appelle
tools/list
/resources/list
/prompts/list
pour découvrir les capacités. - Le modèle choisit un tool → le client exécute → stream des résultats (SSE possible).
- Le client appelle
-
Transports
stdio (local, rapide) ou HTTP streamable (SSE) pour du distant/serveur.
Cas d’usage concrets
- Dev & IDE : accès contrôlé au repo, issues, CI, DB locales ; génération de PR guidée.
- Ops/Entreprise : connectors vers Drive/Slack/GitHub/Stripe et bases internes, avec perimeters roots.
- Assistants desktop : manipuler fichiers locaux via serveurs MCP locaux (Claude Desktop).
Sécurité, gouvernance & limites
- Modèle d’autorisations : périmètres roots, prompts auditables, sampling avec double validation (avant et après l’appel LLM).
- Transparence/coût : sampling côté client = vous gardez la main sur le modèle et la facturation.
- Risques restants : authentification des serveurs distants, gestion des secrets, prompt injection — adoptez clés/API, OAuth, consentements explicites et revue des prompts.
Comment l’essayer (vite)
- Utilisateur : installez Claude Desktop, activez des serveurs locaux (Git, fichiers, etc.).
- Équipe/Produit : exposez votre API en serveur MCP (TS/Python), servez-le en HTTP (SSE) et connectez-le à Claude/ChatGPT/Gemini quand dispo.
- Inspiration : piochez dans les exemples/références de l’org GitHub modelcontextprotocol.
MCP vs intégrations “custom”
- Standard commun (moins de colle par plateforme)
- Contrôle utilisateur (roots, consentements, sampling H-in-the-loop)
- Écosystème multi-fournisseurs (Anthropic, OpenAI, Google, Microsoft/Windows)
Bref : une voie interopérable pour passer de “LLM dans une boîte” à des agents outillés et gouvernables.
Conclusion
MCP standardise enfin la connexion IA ↔ outils/données. Si vous bâtissez des assistants, IDE augmentés ou agents métiers, commencez par un petit serveur MCP (2–3 tools utiles, quelques resources, un prompt bien conçu), puis étendez. L’adoption par les grands acteurs laisse penser que MCP va durer — mieux vaut s’aligner tôt.
Sources : annonces et docs officielles Anthropic / spec MCP ; TechCrunch, The Verge, Axios pour l’adoption et le support plateforme.