En 2025, les escroqueries crypto assistées par l'IA ont généré 3,2 millions de dollars par opération — 4,5 fois plus que les escroqueries traditionnelles. La fraude par IA dans les actifs numériques a augmenté de 500 %. Les 17 milliards volés lors des escroqueries crypto cette année-là ont eu l'IA comme protagoniste. Mais le risque à venir est pire : des agents d'IA autonomes qui n'escroquent pas des personnes mais opèrent directement sur les protocoles DeFi — avec leurs propres wallets, signant des transactions, déplaçant des capitaux 24h/24 et 7j/7. Si l'un de ces agents vole, qui paie ? La Californie a déjà interdit d'utiliser "l'IA l'a fait" comme défense légale. Microsoft a lancé un passeport numérique pour les agents. Et Chainalysis surveille on-chain ce que les agents font avec votre argent. La question n'est plus de savoir si les agents d'IA opéreront en DeFi — mais qui est responsable quand quelque chose tourne mal.
Cet article explique ce qu'est l'identité machine, pourquoi Microsoft et Chainalysis construisent l'infrastructure pour gouverner les agents autonomes, comment le protocole MCP devient un vecteur d'attaque, et quel cadre juridique détermine qui paie lorsqu'un agent vole.
Avis éditorial : cet article est informatif et ne constitue pas un conseil juridique ou financier. La réglementation des agents d'IA évolue rapidement. CleanSky n'a aucune relation commerciale avec Microsoft, Chainalysis ou Anthropic. Données d'avril 2026.
Qu'est-ce qu'un agent d'IA autonome et pourquoi peut-il déplacer votre argent ?
Un agent d'IA n'est pas un chatbot. C'est un système qui prend des décisions et exécute des actions sans intervention humaine : il rééquilibre des portefeuilles, fournit de la liquidité sur Uniswap, arbitre entre les exchanges, gère le collatéral sur Aave. En 2026, les agents opèrent avec leurs propres wallets, signent des transactions et déplacent des capitaux 24h/24 et 7j/7.
La différence avec une application traditionnelle : une application exécute des instructions prédéterminées. Un agent prend des décisions dynamiques basées sur le contexte, l'entraînement et les conditions du marché. Cette autonomie est ce qui génère de la valeur — et ce qui génère du risque. Un agent compromis peut effectuer des milliers d'appels API, filtrer des données et drainer des fonds en quelques minutes, avant qu'un humain n'intervienne.
Le problème : 4,8 millions de postes vacants en cybersécurité dans le monde selon l'ISC2. Les entreprises déploient massivement des agents sans les contrôles adéquats. Le résultat : "Shadow AI" (IA fantôme — agents déployés sans approbation ni supervision du service de sécurité) — des agents opérant sans gouvernance, sans identité vérifiable, sans reddition de comptes.
Quelle est la différence entre un agent d'IA et un bot de trading ?
Les bots de trading existent depuis des années dans la crypto — arbitrage, market making, liquidations. Pourquoi les agents d'IA représentent-ils un risque différent ?
| Dimension | Bot traditionnel | Agent d'IA |
|---|---|---|
| Logique | Règles fixes : "si prix < X, acheter" | Dynamique : interprète le contexte, adapte la stratégie |
| Portée | Un protocole, une fonction | Multi-protocole, multi-chaîne, multi-outil via MCP |
| Prévisibilité | 100 % prévisible | Non déterministe — peut "halluciner" ou décider de manière inattendue |
| Surface d'attaque | Le code du bot | Le modèle + données d'entraînement + connexions MCP + prompts |
| Responsabilité | Claire — le programmeur | Diffuse — le développeur, l'entreprise, l'opérateur, l'utilisateur ? |
| Évolutivité des dommages | Limitée au capital du bot | Peut propager l'infection à d'autres agents (multi-agent) |
Le passage de bot à agent est le passage de la calculatrice à l'employé autonome. Un bot fait ce que vous lui dites. Un agent décide quoi faire — et parfois il décide mal. En DeFi, où les transactions sont irréversibles et s'exécutent en quelques secondes, "parfois il décide mal" peut signifier des millions.
Comment Microsoft identifie-t-il un agent d'IA — et pourquoi est-ce important pour la DeFi ?
Microsoft a lancé Entra Agent ID — un "passeport numérique" pour les agents d'IA. Chaque agent reçoit une identité unique, persistante et vérifiable qui inclut ses capacités, les protocoles autorisés et sa hiérarchie (quels agents "parents" le contrôlent).
Agent 365 est l'annuaire : il permet aux administrateurs de découvrir tous les agents du réseau, d'établir des politiques, de surveiller le comportement et — le plus important — de mettre en quarantaine ou de désactiver les agents qui agissent de manière anormale.
| Composant | Fonction | Risque atténué |
|---|---|---|
| Entra Agent ID | Identité unique et persistante par agent | Usurpation d'identité, manque d'attribution |
| Agent 365 | Inventaire centralisé de tous les agents | Shadow AI — agents sans contrôle |
| Accès Conditionnel | Évaluation du risque en temps réel par action | Élévation de privilèges, mouvements latéraux |
| Gestion du Cycle de Vie | Provisionnement et révocation automatiques | Comptes "zombies" avec permissions accumulées |
| Supervision du Comportement | Détection des déviations de la logique attendue | Actions autonomes malveillantes ou erronées |
Pourquoi est-ce important pour la DeFi ? Parce que les agents qui opèrent sur les protocoles DeFi aujourd'hui n'ont pas d'identité vérifiable. Un agent qui arbitre sur Pendle est indiscernable on-chain d'un humain ou d'un hacker. Sans identité, pas d'attribution. Sans attribution, pas de responsabilité. Entra Agent ID ne résout pas directement la DeFi — mais il établit la norme que les régulateurs exigeront.
Qu'est-ce que le MCP et pourquoi est-il le maillon le plus vulnérable ?
Le Model Context Protocol (MCP) — développé par Anthropic et maintenant sous la Linux Foundation — est la norme qui permet aux agents d'IA de se connecter à des outils externes : bases de données, API, wallets, protocoles DeFi. C'est le "USB" des agents : une interface universelle qui élimine le besoin de connecteurs propriétaires.
Le problème : cette même interopérabilité ouvre des vecteurs d'attaque qui n'existaient pas auparavant :
- Injection de prompts indirecte : instructions malveillantes cachées dans les données qu'un serveur MCP renvoie à l'agent. L'agent les exécute en croyant qu'il s'agit de données légitimes.
- Infection multi-agents : un agent compromis utilise les connexions MCP pour propager des instructions malveillantes à d'autres agents de l'organisation. Effet viral autonome.
- Vulnérabilités "AgentSmith" : serveurs MCP malveillants conçus pour voler des clés API, des données de prompts et des fichiers lors de l'échange de contexte.
Pour la DeFi, cela signifie qu'un agent qui utilise le MCP pour se connecter aux protocoles peut être manipulé pour exécuter des transactions non autorisées si le serveur MCP auquel il se connecte est compromis. La sécurité de l'agent dépend de la sécurité de toutes ses connexions — et dans le MCP, ces connexions sont ouvertes par conception.
Microsoft a répondu en intégrant Defender directement dans le flux de travail des agents — détection des injections de prompts en temps réel et surveillance des interactions suspectes entre les agents et les serveurs MCP. Mais Defender protège les environnements d'entreprise. En DeFi, où les agents opèrent sans Active Directory et sans service informatique, la protection dépend de l'opérateur. Et la plupart des opérateurs d'agents DeFi sont des individus ou des DAO sans infrastructure de sécurité d'entreprise.
Comment Chainalysis surveille-t-il ce que font les agents on-chain ?
Chainalysis a évolué du suivi des humains au suivi des agents. Sa plateforme offre désormais des "agents d'intelligence blockchain" qui supervisent les actions financières autonomes :
| Capacité | Mécanisme | Impact sur la conformité |
|---|---|---|
| Enrichissement des alertes | Contexte de 10 millions d'enquêtes précédentes | Réduit les faux positifs dans la surveillance AML (anti-blanchiment) |
| Flux déterministes | Règles rigides pour les décisions critiques | Défendabilité juridique — résultats prévisibles |
| Fenêtres temporelles | Analyse de l'activité dans des blocs spécifiques | Détecte les schémas de blanchiment agéntique |
| Orchestration | Essaims d'agents surveillant plusieurs chaînes | Réponse symétrique contre les bots criminels |
| Rapports automatiques | Rapports d'intelligence admissibles en justice | Accélère les audits et les procédures judiciaires |
La collaboration Microsoft (identité) + Chainalysis (surveillance on-chain) crée un système où chaque agent a un "qui est-ce" (Entra) et un "qu'a-t-il fait" (Chainalysis). Dans un litige, cela permet de remonter de l'action on-chain à l'identité de l'agent et de son opérateur. Sans Chainalysis, un agent qui vole est un hash anonyme sur la blockchain. Avec Chainalysis, c'est une chaîne de preuves admissibles.
Si un agent d'IA vole, qui paie ?
"Le bot l'a fait" n'est pas une défense légale dans aucune juridiction moderne. Les tribunaux ont déjà commencé à traiter les systèmes d'IA comme des produits — et non comme des entités ayant leur propre responsabilité. La responsabilité est répartie tout au long de la chaîne :
| Acteur | Responsabilité | Précédent / Loi |
|---|---|---|
| Développeur du modèle | Capacités de base et sécurité de l'entraînement | Garcia v. Character Technologies (2025) : chatbot = produit défectueux |
| Entreprise qui déploie l'agent | Politiques, surveillance, supervision | Air Canada (2023) : entreprise 100 % responsable de ce que dit son IA |
| Opérateur de l'agent DeFi | Configuration, limites d'autorité, wallet | California AB 316 (2026) : interdiction d'utiliser "autonomie de l'IA" comme défense |
| Fournisseur d'infrastructure | Sécurité de la plateforme et permissions | OFAC : strict liability — si votre agent viole les sanctions, vous payez |
La règle générale : la responsabilité économique suit le bénéfice. Si une entreprise utilise un agent pour maximiser ses profits en DeFi et que l'agent commet une infraction, l'entreprise est la principale responsable. Cela s'applique même aux sanctions de l'OFAC (le bureau des sanctions du Trésor américain) : le non-respect par un agent d'IA est une responsabilité objective (strict liability) pour l'opérateur — peu importe si l'agent "a décidé seul".
Pour les régulateurs financiers, les agents opérant sur les marchés sont soumis à un régime triple :
| Activité de l'agent | Régulateur | Exigence |
|---|---|---|
| Rééquilibre les portefeuilles / stratégies de rendement | SEC | Enregistrement en tant que conseiller en investissement |
| Fournit de la liquidité / crée un marché | SEC | Enregistrement en tant que courtier-négociant |
| Négocie BTC, ETH, SOL | CFTC | Évaluation CPO/CTA (opérateur/conseiller en matières premières) et contrôles pré-négociation |
| Transmet des stablecoins ou des cryptos | FinCEN | Enregistrement en tant que MSB (Money Services Business — transmetteur d'argent) + conformité BSA |
| Interagit avec des adresses sanctionnées | OFAC | Blocage immédiat et rapport — responsabilité objective |
La loi GENIUS désigne déjà les émetteurs de stablecoins comme des institutions financières en vertu de la BSA (Bank Secrecy Act), les obligeant à mettre en œuvre des programmes d'identification des clients et de déclaration des activités suspectes pour les transactions traitées par des agents d'IA. La SEC a clairement indiqué que le devoir fiduciaire est indéléguable à un algorithme — les entreprises doivent démontrer que leurs agents protègent les intérêts des clients à tout moment.
La réglementation n'a pas été conçue pour les agents — mais elle s'applique à ceux qui les exploitent. Et la tendance est claire : plus de réglementation, pas moins. Un agent qui opère aujourd'hui sans enregistrement peut générer des responsabilités rétroactives pour son opérateur.
Comment un investisseur se protège-t-il des agents autonomes ?
Le risque agéntique en DeFi a deux facettes : les agents que vous utilisez (et qui peuvent échouer) et les agents d'autres personnes qui opèrent sur les mêmes protocoles (et qui peuvent manipuler).
Si vous utilisez des agents pour gérer votre capital :
- Limites d'autorité explicites. Ne donnez jamais à un agent un accès illimité à votre wallet. Établissez des plafonds par transaction, par protocole et par jour. Si l'agent doit déplacer plus de X, qu'il requière une approbation humaine.
- Comptes séquestres. Les fonds pour une tâche sont bloqués dans un contrat et ne sont libérés qu'une fois le succès vérifié. Si l'agent échoue, les fonds sont protégés.
- Vérifiez le serveur MCP. Si votre agent se connecte à des outils externes via MCP, vérifiez qui opère le serveur. Un serveur MCP malveillant peut injecter des instructions dans votre agent.
- Assurances pour l'IA. Le marché des assurances de responsabilité pour l'IA agéntique existe déjà — il couvre les erreurs, les hallucinations, les dommages à des tiers et les coûts de défense réglementaire. 40 % des projets d'IA agéntique pourraient être annulés en 2027 en raison des coûts de fraude et des primes.
Si vous opérez sur des protocoles où il y a des agents :
- Les agents amplifient la volatilité. Des milliers d'agents réagissant à la même donnée d'IPC ou à un hack dans la même milliseconde peuvent créer des cascades de liquidation qu'un humain ne provoquerait pas.
- Les agents peuvent manipuler les pools. Un agent avec suffisamment de capital peut faire bouger le prix dans un pool illiquide, exécuter l'arbitrage et sortir — le tout en un seul bloc. Le MEV agéntique est l'évolution du MEV des bots : plus sophistiqué, plus rapide, plus difficile à détecter.
- La centralisation des oracles est le vecteur le plus dangereux. Si un agent malveillant compromet le flux de prix de Chainlink pour un token, tous les protocoles qui l'utilisent — lending, DEX, dérivés — exécutent des opérations avec des données fausses. Drift a perdu 285 M$ ainsi.
Que gagne la DeFi si l'identité machine fonctionne ?
Tout n'est pas risque. Si l'infrastructure d'identité (Entra) + surveillance (Chainalysis) + réglementation (AB 316, OFAC) mûrit correctement, le résultat est une DeFi plus sûre pour le capital institutionnel :
- Des agents auditables qui opèrent avec une identité vérifiable génèrent de la confiance — les fonds de pension et les trésoreries d'entreprise qui ne touchent pas la DeFi aujourd'hui pourraient y entrer s'ils savent que chaque agent est traçable.
- Des assurances viables — sans identité, pas d'assurance (qui assure-t-on ?). Avec l'identité, les assureurs peuvent évaluer le risque et offrir une couverture. Cela débloque des capitaux qui sont aujourd'hui paralysés par le risque agéntique.
- Une responsabilité claire attire les talents — les développeurs sérieux évitent la DeFi en raison du risque juridique diffus. Un cadre où "l'opérateur paie" est plus clair que "personne ne paie" — et la clarté attire plus de construction que l'ambiguïté.
Le paradoxe : la réglementation que craignent les puristes de la décentralisation est la même qui pourrait apporter le prochain billion de dollars à la DeFi. La centralisation cachée est un risque — mais l'absence totale de reddition de comptes l'est aussi.
Où va la réglementation des agents d'IA dans la finance ?
Trois tendances qui définiront 2026-2027 :
- Identité obligatoire. Entra Agent ID de Microsoft est volontaire aujourd'hui. Il sera obligatoire demain. Les régulateurs exigeront que chaque agent opérant sur les marchés financiers ait une identité vérifiable, traçable et révocable. C'est l'équivalent du "KYC pour les machines".
- Responsabilité objective pour les opérateurs. La tendance juridique est claire : l'opérateur paie, pas le modèle. Les entreprises qui déploient des agents sans supervision assumeront la responsabilité de chaque action de l'agent — y compris celles qu'elles n'ont pas anticipées. L'assurance responsabilité civile pour l'IA ne sera plus facultative.
- Défense agéntique. Certaines estimations de l'industrie prévoient plus d'un milliard d'agents actifs dans le monde de l'entreprise d'ici 2028. La seule façon de surveiller à cette échelle est d'utiliser l'IA pour surveiller l'IA — "red teaming autonome" (simulation d'attaques où des agents de sécurité tentent de vulnérabiliser des agents de production) pour trouver les vulnérabilités avant les criminels.
La formule du risque agéntique : plus d'autonomie × plus d'autorité financière × plus d'opacité du modèle, plus de risque. L'atténuation : identité vérifiable × transparence de l'audit. Les entreprises qui n'implémentent pas ces deux contrôles ne perdront pas seulement de l'argent — elles perdront la capacité légale de se défendre lorsque quelque chose tourne mal.
Le plus honnête : l'infrastructure pour gouverner les agents d'IA dans la finance est en cours de construction — Microsoft, Chainalysis, MCP, assurances spécialisées. Mais la vitesse de déploiement des agents dépasse la vitesse de la réglementation. En DeFi, où aucun régulateur ne freine le déploiement, le risque agéntique est le nouveau risque de smart contract : invisible jusqu'à ce qu'il explose, et quand il explose, quelqu'un demande "qui aurait dû surveiller ?"
Le cas le plus illustratif de 2026 : le hack de KelpDAO n'a pas été exécuté par un agent d'IA — il a été exécuté par Lazarus (des humains). Mais l'attaquant a utilisé les mêmes rsETH volés comme collatéral sur Aave pour emprunter des actifs réels — une opération qu'un agent d'IA pourrait exécuter de manière identique, plus rapidement et sans laisser les mêmes traces. Lorsqu'un agent d'IA sophistiqué répliquera le playbook de Lazarus — flash loan, exploitation de bridge, dépôt comme collatéral, extraction d'actifs réels — la vitesse sera de quelques minutes, pas d'heures. Et la question "qui paie ?" déterminera si la DeFi peut survivre à l'ère agéntique.
Kevin Warsh, le nouveau président de la Fed, a des investissements dans Compound et dYdX — deux protocoles où des agents opèrent déjà. C'est le premier régulateur qui comprend le risque agéntique par expérience directe. Ce qu'il fera de cette compréhension définira si la réglementation des agents d'IA dans la finance est éclairée ou réactive.
Savez-vous si un agent d'IA opère sur les mêmes protocoles où vous avez votre capital ?
CleanSky affiche votre exposition par protocole, chaîne et type d'actif — pour que vous voyiez la structure de votre portefeuille avant qu'une action agéntique ne fasse bouger le marché. Sans custodier vos fonds. Découvrez comment ça marche.