L’Automatisation par l’IA

Comment les LLM et le protocole MCP révolutionnent le monde de l’automatisation

📌 Introduction

Cette interview avec Shubam explore comment l’intelligence artificielle transforme radicalement le monde de l’automatisation.
Alors que des outils comme Zapier, Make et N8N existent depuis des années, l’arrivée des modèles de langage (LLM)
et du protocole MCP marque un tournant historique qui change fondamentalement la façon dont nous créons et gérons les automatisations.

🔄 L’Évolution de l’Automatisation

L’Ancien Monde (il y a 15 ans)

Pour automatiser une tâche, il fallait faire appel à un développeur qui créait un script sur mesure.
Cette approche était coûteuse, difficile à maintenir, et souvent plus chère que de simplement payer des humains pour effectuer ces tâches répétitives. Amazon Mechanical Turk illustrait parfaitement cette époque où des personnes
étaient payées pour faire des clics répétitifs.

L’Ère des Outils No-Code (il y a 10 ans)

L’arrivée de Zapier a marqué une première révolution. Ces outils permettaient de créer des automatisations visuelles
en connectant des « blocs » sans coder. Le principe : « Si ceci se produit, fais cela ». Par exemple, recevoir un email avec un mot-clé spécifique et l’ajouter automatiquement à une feuille de calcul.

La valeur ajoutée de Zapier :

  • Pas besoin d’être développeur
  • Plus de 5000 applications connectées
  • Gestion automatique de l’interopérabilité entre services

Cependant, malgré leur interface « no-code », ces outils restaient proches de la programmation et nécessitaient
souvent des experts, du bidouillage constant et un temps de développement considérable.

🎯 Tâches Build vs Tâches Run

Tâches Run : Tâches obligatoires et répétitives qui n’apportent pas d’apprentissage.
L’humain fonctionne comme une machine (ex: uploader des fichiers, envoyer des emails standardisés,
remplir des checklists).
Tâches Build : Tâches de création et de construction nécessitant réflexion et
prise de décision (ex: préparer une chronique, définir un calendrier éditorial, négocier avec des partenaires).

Cette distinction est cruciale car elle permet d’identifier où se situe la vraie valeur ajoutée d’une entreprise
et où les humains doivent concentrer leurs efforts plutôt que de simplement « pédaler ».

🚀 L’Impact des LLM sur l’Automatisation

Première Vague : Intégration Basique

Dans un premier temps, les outils d’automatisation ont tenté d’intégrer l’IA via leurs propres chatbots,
avec un succès mitigé. Les résultats étaient incohérents, fonctionnant « une fois sur deux ».

Deuxième Vague : Les LLM comme Composants

L’intégration de nœuds ChatGPT, Claude ou via OpenRouter dans les workflows a permis de débloquer
des automatisations auparavant impossibles.

Exemples d’automatisations rendues possibles :

  • Tri de mails intelligent : Analyser finement le contenu des emails pour les catégoriser
    (demandes d’abonnés, invitations, partenaires) au lieu de simplement rechercher des mots-clés
  • Support client automatisé : Lire une FAQ, analyser la question du client, adapter
    la réponse selon son ton et son niveau de satisfaction
  • Génération de blueprints : Demander à Claude ou ChatGPT de créer directement
    le schéma d’une automatisation qu’on peut copier-coller dans N8N

🔌 Le Protocole MCP : La Vraie Révolution

Qu’est-ce que le MCP ?

Le Model Context Protocol (MCP), lancé par Anthropic, est un protocole standardisé pour connecter
des applications aux LLM. C’est comme une « multiprise universelle » qui permet à n’importe quelle
application compatible de communiquer facilement avec un modèle de langage.

🔑 Différence fondamentale avec les API traditionnelles :Les API sont faites pour être lues et utilisées par des humains. Le MCP est conçu spécifiquement pour être utilisé par des LLM. C’est une interface optimisée pour la communication machine-à-machine avec de l’intelligence artificielle.

Architecture du MCP

Le MCP fonctionne selon une architecture client-serveur où le client (ex: Claude) a accès à trois composants :

  • Ressources : Les données et contenus disponibles
  • Outils : Les actions possibles (lire, envoyer, supprimer, etc.)
  • Prompts : Les instructions pour utiliser ces outils

Avantages du MCP

1. Conversation dynamique :

  • Le serveur n’expose que les outils pertinents selon le contexte
  • Évite la surcharge cognitive du modèle (au-delà de 5-6 outils, les performances se dégradent)
  • Exemple : Notion n’expose pas toute son API d’un coup, mais simplifie avec quelques outils clés
2. Pas de problème de versioning :

  • Quand une API change (comme récemment avec les bases de données Notion), pas besoin de tout recoder
  • Le serveur MCP s’adapte et le LLM s’ajuste automatiquement aux nouvelles réponses
  • C’est comme un maître d’hôtel qui connaît toutes les évolutions internes de l’hôtel
3. Standardisation :

  • Un format unique pour toutes les applications compatibles
  • Réduction drastique du temps de développement
  • Facilite l’adoption et la maintenance

💡 Exemples Concrets d’Usage

Pour les Développeurs

Claude Code avec MCP GitHub :Au lieu de taper manuellement « git commit », « git push », etc., on peut simplement demander :
« Peux-tu push ce code en vérifiant que je n’oublie aucun fichier et en respectant le gitignore ? »
L’agent s’occupe de tout.

Pour les Créatifs

Blender avec MCP :Quelqu’un a créé un château en 3D dans Blender simplement en parlant à Claude à la voix,
sans jamais avoir fait de 3D auparavant. Il a même reproduit un château à partir d’une image
de référence, Claude générant automatiquement le code 3D nécessaire.

Pour Tous

Création de formulaires avec Tally :Au lieu de cliquer sur chaque champ, définir les types, gérer les contraintes, on décrit simplement :
« J’aimerais un formulaire pour demander le feedback sur cet épisode, avec des étoiles, nom/prénom,
et un champ caché pour l’ID. » Le LLM crée automatiquement le formulaire via le MCP de Tally.

L’Exemple Ultime : MCP + N8N

Grâce au MCP de N8N et à l’outil Context (qui a accès à toute la documentation), on peut maintenant dire :

« Crée-moi une automatisation qui prend un formulaire avec deux champs (idée de vidéo, contexte),
génère une image via l’API de cette boîte, upload l’image dans Notion, et m’envoie un email avec les images. »

Le LLM va créer le JSON de l’automatisation, l’envoyer à l’instance N8N, la lancer, analyser les erreurs,
s’auto-corriger, et fournir une automatisation documentée et structurée prête à l’emploi.

🎯 L’Avenir de l’Automatisation

Du Workflow Visuel au Texte

L’idée que les automatisations doivent être construites avec des blocs visuels est remise en question.
Le futur pourrait être une automatisation purement textuelle : on décrit ce qu’on veut, l’agent le fait.

De la Conversation à l’Autonomie

On passe progressivement de systèmes conversationnels (où on interagit avec ChatGPT/Claude) à des
systèmes autonomes qui fonctionnent en arrière-plan, combinant agents, LLM et connecteurs MCP sans
intervention humaine continue.

Le Changement de Paradigme

La question du temps investi :Jusqu’à présent, on se demandait « Est-ce que ça vaut le coup d’automatiser ça ? » car le développement prenait des heures ou des jours.
Maintenant que des automatisations complexes peuvent être créées en quelques minutes, la réponse devient presque toujours « Oui ».

🌍 Impact sur le Monde du Travail

La Vision

Les « knowledge workers » vont progressivement passer de « run » (pédaler dans le système) à « build »
(construire le système). Au lieu de recevoir les mêmes mails, télécharger les mêmes pièces jointes,
et les redistribuer sans réflexion critique, on va concevoir les automatisations qui font ce travail.

La Tension Actuelle

  • Les C-level : Des étoiles dans les yeux, excités par le potentiel d’automatisation massive
  • Les opérationnels : De l’inquiétude, car ces tâches répétitives constituent leur quotidien

Le Changement de Perspective

Ce n’est pas simplement une question de rester « dans la course ». C’est une opportunité de changer
fondamentalement son rapport au travail : passer du temps à réfléchir à quels systèmes construire
plutôt que de travailler dans le système existant.

L’analogie du développeur :Au lieu de passer ses journées dans l’éditeur de code à faire les mêmes raccourcis clavier, le développeur va prendre du recul et personnaliser complètement son environnement de travail pour ne plus avoir à faire ces actions répétitives.

🎬 Conclusion

Nous sommes à un tournant historique de l’automatisation. La combinaison des LLM avancés (comme Claude Sonnet 4) et du protocole MCP ouvre des possibilités qui étaient simplement impossibles il y a encore un an.
Des automatisations qui prenaient des jours à construire peuvent maintenant se créer en quelques minutes par simple conversation.

L’enjeu n’est pas de résister à ce changement, mais de l’anticiper et de développer les compétences
qui resteront pertinentes : la réflexion stratégique, la créativité, et la capacité à concevoir
des systèmes plutôt qu’à simplement les exécuter.

🎥 Regarder l’interview complète


Miniature de la vidéo

Compte rendu réalisé à partir de la transcription de l’interview | 2025

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut