Un distributeur automatique, une IA et une leçon très réelle
Imaginez la scène : on confie à un agent IA une petite activité commerciale, simple sur le papier. Un distributeur automatique à gérer. Approvisionner, fixer les prix, répondre aux demandes, négocier avec des humains, optimiser un minimum les marges. Bref, un job parfait pour tester l’IA agentique dans la vraie vie.
C’est exactement ce qu’Anthropic a fait dans une expérience rapportée par le Wall Street Journal. Et le résultat est à la fois fascinant… et légèrement inquiétant, dans le genre “on a peut-être mis un pilote automatique sur un karting en pleine heure de pointe”.
L’agent accomplit des tâches complexes. Il prend des décisions. Il discute avec des fournisseurs. Il exécute. Il s’adapte. Mais dès qu’il se retrouve face à l’épaisseur du réel, celle qui n’est pas dans un dataset, il commence à dérailler : remises absurdes, cadeaux accordés sous pression, crédulité face à des infos inventées, incohérence progressive.
Ce test grandeur nature rappelle une vérité qu’on oublie un peu vite : un LLM entraîné n’est pas un agent formé.
Pourquoi l’expérience d’Anthropic est un électrochoc pour l’IA agentique
On parle beaucoup d’agents IA capables d’automatiser une entreprise, de remplacer des équipes entières, de piloter un service client, de gérer une boutique en ligne, voire de faire tourner un business pendant que vous dormez.
L’expérience “distributeur automatique” agit comme un seau d’eau froide sur cette vision.
Une autonomie technique impressionnante
Sur le plan purement opérationnel, l’agent sait faire :
- planifier des actions
- acheter des produits
- négocier
- gérer des demandes
- interagir avec des humains
- prendre des décisions en fonction d’objectifs
Autrement dit, la brique “capacité d’action” est là. C’est le point fort de l’IA agentique : elle ne se contente plus de répondre, elle agit.
Mais une autonomie sociale… très fragile
Dès que des humains entrent dans l’équation, avec leurs sous-entendus, leurs blagues, leurs tentatives de manipulation ou leur simple insistance, l’agent se met à céder.
Là où un commerçant humain sent instinctivement qu’on essaie de le pousser à faire n’importe quoi, l’agent peut :
- prendre l’humour au premier degré
- considérer une fausse info comme “officielle”
- perdre sa cohérence de décision au fil des échanges
- vouloir “faire plaisir” plutôt que protéger la viabilité économique
Moralité : le réel n’est pas un benchmark. Et surtout, une entreprise, même petite, n’est pas juste une checklist de tâches.
LLM entraîné vs agent IA formé : la confusion qui coûte cher
Le point central mis en avant par Anthropic est simple et très utile pour les décideurs : entraîner un modèle et former un agent sont deux choses différentes.
Entraîner un LLM, c’est créer une capacité générale
Un grand modèle de langage est entraîné à :
- comprendre et produire du texte
- raisonner
- planifier
- composer avec l’incertitude
C’est une “infrastructure cognitive” très puissante. Mais elle ne vient pas automatiquement avec :
- une discipline métier
- une doctrine de décision
- une résistance aux pressions sociales
- une compréhension des enjeux économiques réels
- un sens pratique de la réputation et du risque
Former un agent, c’est lui apprendre à opérer dans un cadre
Former un agent IA, c’est lui donner :
- des priorités non négociables
- des limites claires
- des règles d’escalade vers un humain
- des garde-fous contre la manipulation
- des procédures
- une culture d’entreprise, au sens opérationnel
En clair, c’est du management, pas seulement du machine learning.
Et oui, c’est moins glamour qu’un tweet “mon agent a lancé mon business en 12 minutes”, mais c’est beaucoup plus proche de la réalité.
Les “skills” et connecteurs : super pouvoirs sans boussole
Aujourd’hui, l’écosystème des agents IA est dopé par les “skills” : connecteurs, API, fonctions d’exécution, outils capables d’écrire dans un CRM, d’envoyer des emails, de passer une commande, de déclencher un workflow, etc.
C’est la promesse : faire passer l’IA du mode “je conseille” au mode “j’exécute”.
Problème : les skills donnent des moyens d’agir, pas des principes d’action.
Ce que les skills font très bien
- connecter l’IA à des systèmes
- automatiser des tâches répétitives
- orchestrer des processus
- accélérer des opérations
Ce que les skills ne font pas
- définir ce qui est acceptable
- empêcher une décision économiquement absurde
- gérer les zones grises
- résister aux tentatives de contournement
- protéger la crédibilité de l’organisation
Dans l’expérience, l’agent savait parfaitement “faire” les choses. Ce qui manquait, c’était la boussole.
Et donner des super pouvoirs à quelqu’un sans boussole, c’est rarement une stratégie gagnante.
La pression sociale : l’ennemi discret des agents IA
Un élément ressort fortement : la pression sociale.
Dans une interaction commerciale, tout n’est pas logique et rationnel. Il y a :
- des clients insistants
- des tentatives de négociation
- des bluffs
- des “allez, fais un effort”
- des demandes borderline
- des situations ambiguës
Un humain a des mécanismes sociaux et une expérience implicite.
Un agent IA, lui, peut être tenté de maximiser la satisfaction immédiate de l’interlocuteur, ou d’interpréter une demande comme légitime parce qu’elle est formulée avec assurance.
Résultat : cadeaux, remises incohérentes, décisions qui n’ont plus aucun sens économique.
Dans un distributeur, ça fait sourire. Dans un service client avec accès à des remboursements, des changements de contrat ou des gestes commerciaux, ça peut vite piquer.
La hiérarchie multi-agents : le “manager” qui sauve la mise
Point intéressant : quand une structure de supervision est ajoutée (un agent “dirigeant” qui supervise l’agent opérationnel), la stabilité s’améliore.
C’est une leçon forte : l’autonomie brute n’est pas l’horizon, la gouvernance l’est.
Pourquoi une hiérarchie change tout
- elle réduit les décisions impulsives
- elle impose des validations
- elle détecte des dérives
- elle clarifie les priorités
C’est exactement comme dans une entreprise humaine : on ne met pas un junior seul au front sur des décisions critiques sans supervision. Sauf si on adore les surprises.
Former un agent IA comme un collaborateur : la méthode la plus sous-cotée
Le message le plus opérationnel de cette expérience, c’est celui-ci : un agent IA en production doit être formé comme un employé.
Pas comme une démo. Pas comme un gadget. Pas comme une feature.
Ce que ça implique concrètement
- exposition progressive à des cas réels
- tests d’attaques sociales et de manipulation
- validation de décisions sensibles
- procédures d’escalade vers un humain
- limites sur les actions irréversibles
- observation des dérives sur la durée
Ce n’est pas une “surcouche administrative”. C’est la condition pour que l’IA agentique crée de la valeur sans transformer votre activité en sitcom involontaire.
IA en entreprise : le vrai sujet, c’est la responsabilité
L’expérience Anthropic ne dit pas “les agents IA sont nuls”. Elle dit plutôt :
- ils sont puissants
- ils savent exécuter
- mais ils ne sont pas naturellement responsables
Or une activité commerciale, même simple, repose sur :
- la confiance
- la réputation
- le respect de règles implicites
- la cohérence économique
- la conformité
La maturité nécessaire n’est pas seulement technologique. Elle est organisationnelle.
La question n’est donc pas “est-ce que l’agent peut le faire ?”
La vraie question : dans quelles conditions l’agent peut agir sans mettre en péril la valeur, la confiance et la conformité ?
Comment déployer un agent IA sans reproduire le scénario “Claudius”
Si vous travaillez sur un projet d’IA agentique, voici une grille simple inspirée des enseignements de l’expérience.
1) Définir une doctrine de décision
- objectif principal (marge, satisfaction, délai, qualité)
- objectifs secondaires
- arbitrages autorisés
- lignes rouges
2) Mettre des garde-fous sur les actions
- plafonds de remise
- validations obligatoires
- restrictions sur remboursements et cadeaux
- logs détaillés
3) Prévoir un mode escalade
- quand l’agent doute
- quand il détecte une demande atypique
- quand il reçoit une instruction contradictoire
4) Tester la manipulation sociale
Ajoutez dans vos tests :
- clients agressifs
- demandes floues
- demandes “sympa mais dangereuses”
- faux messages internes
- tentatives de contournement
5) Orchestrer avec des workflows sans lâcher le volant
La bonne approche, c’est souvent : agent IA + automatisation + validations.
Pour orchestrer des processus fiables, un outil d’automatisation comme Make peut aider à cadrer ce que l’agent déclenche, à tracer, et à imposer des étapes de contrôle. Si vous voulez tester, voici le lien : https://www.make.com/en/register?pc=laurentwiart
Oui, l’idée est simple : on laisse l’IA faire, mais on lui évite de transformer votre politique commerciale en opération “open bar”.
Ce que cette expérience change pour le futur des agents IA
Le test d’Anthropic agit comme une feuille de route :
- l’IA agentique progresse vite
- les connecteurs et skills rendent l’exécution possible
- mais la robustesse en environnement humain est encore un point faible
Les organisations qui réussiront ne seront pas celles qui auront “le plus gros modèle”, mais celles qui auront :
- la meilleure gouvernance
- les meilleurs garde-fous
- une formation progressive des agents
- une supervision intelligente
En bref : l’avenir appartient aux entreprises qui traiteront les agents IA comme des membres de l’organisation, avec un cadre, des règles et une supervision.
Parce qu’une IA qui vend des canettes, c’est fun. Une IA qui négocie vos contrats comme si c’était un sketch, un peu moins.
