En 2025, les escroqueries crypto assistées par l'IA ont généré 3,2 millions de dollars par opération — 4,5 fois plus que les escroqueries traditionnelles. La fraude par IA dans les actifs numériques a augmenté de 500 %. Les 17 milliards volés lors des escroqueries crypto cette année-là ont eu l'IA comme protagoniste. Mais le risque à venir est pire : des agents d'IA autonomes qui n'escroquent pas des personnes mais opèrent directement sur les protocoles DeFi — avec leurs propres wallets, signant des transactions, déplaçant des capitaux 24h/24 et 7j/7. Si l'un de ces agents vole, qui paie ? La Californie a déjà interdit d'utiliser "l'IA l'a fait" comme défense légale. Microsoft a lancé un passeport numérique pour les agents. Et Chainalysis surveille on-chain ce que les agents font avec votre argent. La question n'est plus de savoir si les agents d'IA opéreront en DeFi — mais qui est responsable quand quelque chose tourne mal.

Cet article explique ce qu'est l'identité machine, pourquoi Microsoft et Chainalysis construisent l'infrastructure pour gouverner les agents autonomes, comment le protocole MCP devient un vecteur d'attaque, et quel cadre juridique détermine qui paie lorsqu'un agent vole.

Avis éditorial : cet article est informatif et ne constitue pas un conseil juridique ou financier. La réglementation des agents d'IA évolue rapidement. CleanSky n'a aucune relation commerciale avec Microsoft, Chainalysis ou Anthropic. Données d'avril 2026.

Qu'est-ce qu'un agent d'IA autonome et pourquoi peut-il déplacer votre argent ?

Un agent d'IA n'est pas un chatbot. C'est un système qui prend des décisions et exécute des actions sans intervention humaine : il rééquilibre des portefeuilles, fournit de la liquidité sur Uniswap, arbitre entre les exchanges, gère le collatéral sur Aave. En 2026, les agents opèrent avec leurs propres wallets, signent des transactions et déplacent des capitaux 24h/24 et 7j/7.

La différence avec une application traditionnelle : une application exécute des instructions prédéterminées. Un agent prend des décisions dynamiques basées sur le contexte, l'entraînement et les conditions du marché. Cette autonomie est ce qui génère de la valeur — et ce qui génère du risque. Un agent compromis peut effectuer des milliers d'appels API, filtrer des données et drainer des fonds en quelques minutes, avant qu'un humain n'intervienne.

Le problème : 4,8 millions de postes vacants en cybersécurité dans le monde selon l'ISC2. Les entreprises déploient massivement des agents sans les contrôles adéquats. Le résultat : "Shadow AI" (IA fantôme — agents déployés sans approbation ni supervision du service de sécurité) — des agents opérant sans gouvernance, sans identité vérifiable, sans reddition de comptes.

Quelle est la différence entre un agent d'IA et un bot de trading ?

Les bots de trading existent depuis des années dans la crypto — arbitrage, market making, liquidations. Pourquoi les agents d'IA représentent-ils un risque différent ?

DimensionBot traditionnelAgent d'IA
LogiqueRègles fixes : "si prix < X, acheter"Dynamique : interprète le contexte, adapte la stratégie
PortéeUn protocole, une fonctionMulti-protocole, multi-chaîne, multi-outil via MCP
Prévisibilité100 % prévisibleNon déterministe — peut "halluciner" ou décider de manière inattendue
Surface d'attaqueLe code du botLe modèle + données d'entraînement + connexions MCP + prompts
ResponsabilitéClaire — le programmeurDiffuse — le développeur, l'entreprise, l'opérateur, l'utilisateur ?
Évolutivité des dommagesLimitée au capital du botPeut propager l'infection à d'autres agents (multi-agent)

Le passage de bot à agent est le passage de la calculatrice à l'employé autonome. Un bot fait ce que vous lui dites. Un agent décide quoi faire — et parfois il décide mal. En DeFi, où les transactions sont irréversibles et s'exécutent en quelques secondes, "parfois il décide mal" peut signifier des millions.

Comment Microsoft identifie-t-il un agent d'IA — et pourquoi est-ce important pour la DeFi ?

Microsoft a lancé Entra Agent ID — un "passeport numérique" pour les agents d'IA. Chaque agent reçoit une identité unique, persistante et vérifiable qui inclut ses capacités, les protocoles autorisés et sa hiérarchie (quels agents "parents" le contrôlent).

Agent 365 est l'annuaire : il permet aux administrateurs de découvrir tous les agents du réseau, d'établir des politiques, de surveiller le comportement et — le plus important — de mettre en quarantaine ou de désactiver les agents qui agissent de manière anormale.

ComposantFonctionRisque atténué
Entra Agent IDIdentité unique et persistante par agentUsurpation d'identité, manque d'attribution
Agent 365Inventaire centralisé de tous les agentsShadow AI — agents sans contrôle
Accès ConditionnelÉvaluation du risque en temps réel par actionÉlévation de privilèges, mouvements latéraux
Gestion du Cycle de VieProvisionnement et révocation automatiquesComptes "zombies" avec permissions accumulées
Supervision du ComportementDétection des déviations de la logique attendueActions autonomes malveillantes ou erronées

Pourquoi est-ce important pour la DeFi ? Parce que les agents qui opèrent sur les protocoles DeFi aujourd'hui n'ont pas d'identité vérifiable. Un agent qui arbitre sur Pendle est indiscernable on-chain d'un humain ou d'un hacker. Sans identité, pas d'attribution. Sans attribution, pas de responsabilité. Entra Agent ID ne résout pas directement la DeFi — mais il établit la norme que les régulateurs exigeront.

Qu'est-ce que le MCP et pourquoi est-il le maillon le plus vulnérable ?

Le Model Context Protocol (MCP) — développé par Anthropic et maintenant sous la Linux Foundation — est la norme qui permet aux agents d'IA de se connecter à des outils externes : bases de données, API, wallets, protocoles DeFi. C'est le "USB" des agents : une interface universelle qui élimine le besoin de connecteurs propriétaires.

Le problème : cette même interopérabilité ouvre des vecteurs d'attaque qui n'existaient pas auparavant :

  • Injection de prompts indirecte : instructions malveillantes cachées dans les données qu'un serveur MCP renvoie à l'agent. L'agent les exécute en croyant qu'il s'agit de données légitimes.
  • Infection multi-agents : un agent compromis utilise les connexions MCP pour propager des instructions malveillantes à d'autres agents de l'organisation. Effet viral autonome.
  • Vulnérabilités "AgentSmith" : serveurs MCP malveillants conçus pour voler des clés API, des données de prompts et des fichiers lors de l'échange de contexte.

Pour la DeFi, cela signifie qu'un agent qui utilise le MCP pour se connecter aux protocoles peut être manipulé pour exécuter des transactions non autorisées si le serveur MCP auquel il se connecte est compromis. La sécurité de l'agent dépend de la sécurité de toutes ses connexions — et dans le MCP, ces connexions sont ouvertes par conception.

Microsoft a répondu en intégrant Defender directement dans le flux de travail des agents — détection des injections de prompts en temps réel et surveillance des interactions suspectes entre les agents et les serveurs MCP. Mais Defender protège les environnements d'entreprise. En DeFi, où les agents opèrent sans Active Directory et sans service informatique, la protection dépend de l'opérateur. Et la plupart des opérateurs d'agents DeFi sont des individus ou des DAO sans infrastructure de sécurité d'entreprise.

Comment Chainalysis surveille-t-il ce que font les agents on-chain ?

Chainalysis a évolué du suivi des humains au suivi des agents. Sa plateforme offre désormais des "agents d'intelligence blockchain" qui supervisent les actions financières autonomes :

CapacitéMécanismeImpact sur la conformité
Enrichissement des alertesContexte de 10 millions d'enquêtes précédentesRéduit les faux positifs dans la surveillance AML (anti-blanchiment)
Flux déterministesRègles rigides pour les décisions critiquesDéfendabilité juridique — résultats prévisibles
Fenêtres temporellesAnalyse de l'activité dans des blocs spécifiquesDétecte les schémas de blanchiment agéntique
OrchestrationEssaims d'agents surveillant plusieurs chaînesRéponse symétrique contre les bots criminels
Rapports automatiquesRapports d'intelligence admissibles en justiceAccélère les audits et les procédures judiciaires

La collaboration Microsoft (identité) + Chainalysis (surveillance on-chain) crée un système où chaque agent a un "qui est-ce" (Entra) et un "qu'a-t-il fait" (Chainalysis). Dans un litige, cela permet de remonter de l'action on-chain à l'identité de l'agent et de son opérateur. Sans Chainalysis, un agent qui vole est un hash anonyme sur la blockchain. Avec Chainalysis, c'est une chaîne de preuves admissibles.

Si un agent d'IA vole, qui paie ?

"Le bot l'a fait" n'est pas une défense légale dans aucune juridiction moderne. Les tribunaux ont déjà commencé à traiter les systèmes d'IA comme des produits — et non comme des entités ayant leur propre responsabilité. La responsabilité est répartie tout au long de la chaîne :

ActeurResponsabilitéPrécédent / Loi
Développeur du modèleCapacités de base et sécurité de l'entraînementGarcia v. Character Technologies (2025) : chatbot = produit défectueux
Entreprise qui déploie l'agentPolitiques, surveillance, supervisionAir Canada (2023) : entreprise 100 % responsable de ce que dit son IA
Opérateur de l'agent DeFiConfiguration, limites d'autorité, walletCalifornia AB 316 (2026) : interdiction d'utiliser "autonomie de l'IA" comme défense
Fournisseur d'infrastructureSécurité de la plateforme et permissionsOFAC : strict liability — si votre agent viole les sanctions, vous payez

La règle générale : la responsabilité économique suit le bénéfice. Si une entreprise utilise un agent pour maximiser ses profits en DeFi et que l'agent commet une infraction, l'entreprise est la principale responsable. Cela s'applique même aux sanctions de l'OFAC (le bureau des sanctions du Trésor américain) : le non-respect par un agent d'IA est une responsabilité objective (strict liability) pour l'opérateur — peu importe si l'agent "a décidé seul".

Pour les régulateurs financiers, les agents opérant sur les marchés sont soumis à un régime triple :

Activité de l'agentRégulateurExigence
Rééquilibre les portefeuilles / stratégies de rendementSECEnregistrement en tant que conseiller en investissement
Fournit de la liquidité / crée un marchéSECEnregistrement en tant que courtier-négociant
Négocie BTC, ETH, SOLCFTCÉvaluation CPO/CTA (opérateur/conseiller en matières premières) et contrôles pré-négociation
Transmet des stablecoins ou des cryptosFinCENEnregistrement en tant que MSB (Money Services Business — transmetteur d'argent) + conformité BSA
Interagit avec des adresses sanctionnéesOFACBlocage immédiat et rapport — responsabilité objective

La loi GENIUS désigne déjà les émetteurs de stablecoins comme des institutions financières en vertu de la BSA (Bank Secrecy Act), les obligeant à mettre en œuvre des programmes d'identification des clients et de déclaration des activités suspectes pour les transactions traitées par des agents d'IA. La SEC a clairement indiqué que le devoir fiduciaire est indéléguable à un algorithme — les entreprises doivent démontrer que leurs agents protègent les intérêts des clients à tout moment.

La réglementation n'a pas été conçue pour les agents — mais elle s'applique à ceux qui les exploitent. Et la tendance est claire : plus de réglementation, pas moins. Un agent qui opère aujourd'hui sans enregistrement peut générer des responsabilités rétroactives pour son opérateur.

Comment un investisseur se protège-t-il des agents autonomes ?

Le risque agéntique en DeFi a deux facettes : les agents que vous utilisez (et qui peuvent échouer) et les agents d'autres personnes qui opèrent sur les mêmes protocoles (et qui peuvent manipuler).

Si vous utilisez des agents pour gérer votre capital :

  • Limites d'autorité explicites. Ne donnez jamais à un agent un accès illimité à votre wallet. Établissez des plafonds par transaction, par protocole et par jour. Si l'agent doit déplacer plus de X, qu'il requière une approbation humaine.
  • Comptes séquestres. Les fonds pour une tâche sont bloqués dans un contrat et ne sont libérés qu'une fois le succès vérifié. Si l'agent échoue, les fonds sont protégés.
  • Vérifiez le serveur MCP. Si votre agent se connecte à des outils externes via MCP, vérifiez qui opère le serveur. Un serveur MCP malveillant peut injecter des instructions dans votre agent.
  • Assurances pour l'IA. Le marché des assurances de responsabilité pour l'IA agéntique existe déjà — il couvre les erreurs, les hallucinations, les dommages à des tiers et les coûts de défense réglementaire. 40 % des projets d'IA agéntique pourraient être annulés en 2027 en raison des coûts de fraude et des primes.

Si vous opérez sur des protocoles où il y a des agents :

  • Les agents amplifient la volatilité. Des milliers d'agents réagissant à la même donnée d'IPC ou à un hack dans la même milliseconde peuvent créer des cascades de liquidation qu'un humain ne provoquerait pas.
  • Les agents peuvent manipuler les pools. Un agent avec suffisamment de capital peut faire bouger le prix dans un pool illiquide, exécuter l'arbitrage et sortir — le tout en un seul bloc. Le MEV agéntique est l'évolution du MEV des bots : plus sophistiqué, plus rapide, plus difficile à détecter.
  • La centralisation des oracles est le vecteur le plus dangereux. Si un agent malveillant compromet le flux de prix de Chainlink pour un token, tous les protocoles qui l'utilisent — lending, DEX, dérivés — exécutent des opérations avec des données fausses. Drift a perdu 285 M$ ainsi.

Que gagne la DeFi si l'identité machine fonctionne ?

Tout n'est pas risque. Si l'infrastructure d'identité (Entra) + surveillance (Chainalysis) + réglementation (AB 316, OFAC) mûrit correctement, le résultat est une DeFi plus sûre pour le capital institutionnel :

  • Des agents auditables qui opèrent avec une identité vérifiable génèrent de la confiance — les fonds de pension et les trésoreries d'entreprise qui ne touchent pas la DeFi aujourd'hui pourraient y entrer s'ils savent que chaque agent est traçable.
  • Des assurances viables — sans identité, pas d'assurance (qui assure-t-on ?). Avec l'identité, les assureurs peuvent évaluer le risque et offrir une couverture. Cela débloque des capitaux qui sont aujourd'hui paralysés par le risque agéntique.
  • Une responsabilité claire attire les talents — les développeurs sérieux évitent la DeFi en raison du risque juridique diffus. Un cadre où "l'opérateur paie" est plus clair que "personne ne paie" — et la clarté attire plus de construction que l'ambiguïté.

Le paradoxe : la réglementation que craignent les puristes de la décentralisation est la même qui pourrait apporter le prochain billion de dollars à la DeFi. La centralisation cachée est un risque — mais l'absence totale de reddition de comptes l'est aussi.

Où va la réglementation des agents d'IA dans la finance ?

Trois tendances qui définiront 2026-2027 :

  1. Identité obligatoire. Entra Agent ID de Microsoft est volontaire aujourd'hui. Il sera obligatoire demain. Les régulateurs exigeront que chaque agent opérant sur les marchés financiers ait une identité vérifiable, traçable et révocable. C'est l'équivalent du "KYC pour les machines".
  2. Responsabilité objective pour les opérateurs. La tendance juridique est claire : l'opérateur paie, pas le modèle. Les entreprises qui déploient des agents sans supervision assumeront la responsabilité de chaque action de l'agent — y compris celles qu'elles n'ont pas anticipées. L'assurance responsabilité civile pour l'IA ne sera plus facultative.
  3. Défense agéntique. Certaines estimations de l'industrie prévoient plus d'un milliard d'agents actifs dans le monde de l'entreprise d'ici 2028. La seule façon de surveiller à cette échelle est d'utiliser l'IA pour surveiller l'IA — "red teaming autonome" (simulation d'attaques où des agents de sécurité tentent de vulnérabiliser des agents de production) pour trouver les vulnérabilités avant les criminels.

La formule du risque agéntique : plus d'autonomie × plus d'autorité financière × plus d'opacité du modèle, plus de risque. L'atténuation : identité vérifiable × transparence de l'audit. Les entreprises qui n'implémentent pas ces deux contrôles ne perdront pas seulement de l'argent — elles perdront la capacité légale de se défendre lorsque quelque chose tourne mal.

Le plus honnête : l'infrastructure pour gouverner les agents d'IA dans la finance est en cours de construction — Microsoft, Chainalysis, MCP, assurances spécialisées. Mais la vitesse de déploiement des agents dépasse la vitesse de la réglementation. En DeFi, où aucun régulateur ne freine le déploiement, le risque agéntique est le nouveau risque de smart contract : invisible jusqu'à ce qu'il explose, et quand il explose, quelqu'un demande "qui aurait dû surveiller ?"

Le cas le plus illustratif de 2026 : le hack de KelpDAO n'a pas été exécuté par un agent d'IA — il a été exécuté par Lazarus (des humains). Mais l'attaquant a utilisé les mêmes rsETH volés comme collatéral sur Aave pour emprunter des actifs réels — une opération qu'un agent d'IA pourrait exécuter de manière identique, plus rapidement et sans laisser les mêmes traces. Lorsqu'un agent d'IA sophistiqué répliquera le playbook de Lazarus — flash loan, exploitation de bridge, dépôt comme collatéral, extraction d'actifs réels — la vitesse sera de quelques minutes, pas d'heures. Et la question "qui paie ?" déterminera si la DeFi peut survivre à l'ère agéntique.

Kevin Warsh, le nouveau président de la Fed, a des investissements dans Compound et dYdX — deux protocoles où des agents opèrent déjà. C'est le premier régulateur qui comprend le risque agéntique par expérience directe. Ce qu'il fera de cette compréhension définira si la réglementation des agents d'IA dans la finance est éclairée ou réactive.

Savez-vous si un agent d'IA opère sur les mêmes protocoles où vous avez votre capital ?

CleanSky affiche votre exposition par protocole, chaîne et type d'actif — pour que vous voyiez la structure de votre portefeuille avant qu'une action agéntique ne fasse bouger le marché. Sans custodier vos fonds. Découvrez comment ça marche.