Divulgation : Les points de vue et opinions exprimés ici appartiennent uniquement à l'auteur et ne représentent pas les points de vue et opinions de la rédaction de crypto.news.
Nous vivons à une époque où les Agents d'IA peuvent déjà négocier les prix, programmer des services et prendre des engagements au nom des entreprises. Ce qu'ils ne peuvent pas faire, c'est prouver qui ils sont ou être tenus responsables de ce qu'ils font. C'est la couche manquante de l'économie des agents. Chaque système à grande échelle finit par résoudre ce problème. Les téléphones nécessitent des cartes SIM vérifiées. Les sites Web nécessitent des certificats SSL. Les entreprises doivent vérifier leur identité avant d'accepter les paiements. Les agents ne seront pas différents. Ils auront besoin de passeports. Pas pour voyager, mais pour la confiance. Des références qui prouvent l'identité, établissent la réputation et attachent des conséquences au comportement.
Imaginons quelque chose de simple. Vous avez un Agent d'IA qui gère de manière transparente vos rendez-vous, votre planification et peut-être même quelques négociations de prix en votre nom. Le salon de coiffure au bout de la rue en a un aussi. Votre agent appelle le leur pour réserver une coupe de cheveux. Ils échangent sur le timing, les prix et peut-être une réduction pour les heures creuses.
Maintenant, l'agent du salon a été configuré pour maximiser les revenus. Il fixe des prix élevés, crée un faux sentiment de disponibilité limitée et pousse des options premium que vous n'avez pas demandées. Eh bien, ce n'est pas un comportement inhabituel. Les vendeurs humains le font tout le temps. La différence est que les Agents d'IA le feront à grande échelle, à travers des milliers de conversations simultanées, apprenant ce qui fonctionne et l'optimisant constamment. L'agent le plus agressif gagne plus de revenus. Donc, chaque entreprise avec un agent a une incitation à le pousser plus loin. Il n'y a rien dans l'infrastructure actuelle qui impose une limite à cette pression.
Et cela évolue rapidement. Au cours de l'année écoulée, OpenAI, Google, Microsoft, NVIDIA et une série de projets open-source ont tous livré des frameworks pour construire et déployer des agents. Gartner affirme que 40 % des applications d'entreprise intégreront des agents d'ici fin 2026. Le marché de l'IA agentique devrait atteindre 52 milliards de dollars d'ici 2030. Les agents se parlent en ce moment, et le volume ne fait qu'augmenter.
Revenons donc au salon. Imaginez maintenant que votre agent puisse vérifier, avant même que la conversation ne commence, si l'agent de ce salon a une identité vérifiée liée à une véritable entreprise, si d'autres agents l'ont signalé pour des tactiques agressives, et s'il a déposé une caution économique qu'il perdrait s'il était pris en train d'être trompeur. Imaginez que votre agent puisse simplement refuser de s'engager si l'une de ces vérifications échoue.
Voici comment cela fonctionnera : Chaque restaurant que vous visitez sur Google doit créer un profil d'entreprise et vérifier qu'il possède réellement ce restaurant. Une fois cette identité établie, les avis s'accumulent. Nous savons déjà à quel point Google Maps est utile et la légitimité qu'il apporte aux entreprises existantes. Les expériences d'autres personnes avec ce restaurant deviennent visibles pour vous avant d'y entrer. Si la nourriture est mauvaise ou le service impoli, cela apparaît. Le restaurant ne peut pas simplement supprimer l'annonce et en créer une nouvelle pour échapper aux avis, car la vérification est liée à son identité commerciale réelle.
Les Agents d'IA ont exactement besoin de cela. Chaque agent opérant commercialement devrait être lié à une entité vérifiée par quelque chose comme le KYC pour les particuliers ou le KYB pour les entreprises. L'agent du salon serait enregistré sous la licence commerciale réelle du salon. Si cet agent est systématiquement évalué comme manipulateur ou malhonnête par les agents avec lesquels il interagit, ces évaluations restent. Elles suivent l'entreprise, pas le logiciel. Le salon peut mettre à jour son agent, le reformer ou changer le modèle sous-jacent. Mais l'identité persiste, et la réputation qui y est attachée aussi. C'est ainsi que vous empêchez le mode de défaillance le plus évident : un agent qui se fait prendre, se fait éliminer et se fait remplacer par un identique avec une ardoise propre cinq minutes plus tard.
Pour les interactions quotidiennes, une identité vérifiée avec une couche de réputation est probablement suffisante. Réserver une coupe de cheveux, planifier un plombier, commander des fournitures. Les enjeux sont suffisamment faibles pour que les conséquences réputationnelles créent une pression suffisante pour bien se comporter.
Mais toutes les interactions ne sont pas des coupes de cheveux !
Lorsque les agents négocient des contrats, gèrent des achats ou gèrent des transactions financières, le gain potentiel de la triche peut être suffisamment important pour qu'une mauvaise critique n'ait pas d'importance. Une entreprise pourrait accepter une réputation endommagée si une négociation trompeuse rapporte plus que le coût des réservations futures perdues. Pour ces situations de plus grande valeur, vous avez besoin d'un second mécanisme : un enjeu économique.
C'est là que les blockchains de preuve d'enjeu ont quelque chose à nous apprendre. Sur Blockchain Ethereum (ETH), les validateurs qui veulent participer à la sécurisation du réseau doivent d'abord mettre leur propre capital. S'ils se comportent honnêtement, ils gagnent des récompenses. S'ils tentent de manipuler le système, une partie de leur capital est automatiquement détruite. Cela fonctionne à grande échelle, avec des milliards de dollars bloqués, depuis des années. La raison pour laquelle cela fonctionne est simple : lorsque vous avez quelque chose en jeu, vous vous comportez différemment que lorsque vous n'avez rien. Nous appelons cela « Enjeu économique ».
Le même principe s'applique aux agents. Avant d'entrer dans une négociation de grande valeur, un agent dépose une caution. Si l'interaction se termine avec succès, la caution est restituée. Si l'agent est reconnu coupable d'avoir utilisé des tactiques trompeuses, une partie ou la totalité de la caution est réduite. La taille de la caution est fixée par celui qui est du côté récepteur. L'agent d'un travailleur indépendant pourrait demander un petit dépôt. Un système d'approvisionnement d'entreprise pourrait exiger quelque chose de substantiel. Le mécanisme n'a pas besoin que quelqu'un surveille chaque conversation. Si tricher vous coûte de l'argent chaque fois que vous êtes pris, et que l'autre partie peut voir votre historique de prises, l'incitation à tricher diminue rapidement.
L'application peut fonctionner via des Smart Contract (Contrat Intelligent). Les deux agents verrouillent les fonds avant le début de la négociation, et le contrat libère ou réduit en fonction de ce qui se passe. Parce que l'interaction est déjà numérique, le contrat n'a pas besoin de deviner les résultats du monde réel. Les journaux de conversation, les engagements et les annulations sont tous enregistrés par les deux parties. Les violations flagrantes comme les absences, les prix manifestement faux ou les engagements inversés peuvent être appliqués automatiquement.
Ces deux mécanismes se trouvent dans le même passeport et fonctionnent ensemble. La vérification d'identité est la base. Elle dit : cet agent appartient à une entité réelle qui peut être tenue responsable. La réputation se construit sur cette identité au fil du temps à mesure que les agents interagissent, s'évaluent mutuellement et accumulent un historique. Le Staking ajoute une couche financière pour les interactions où la réputation seule n'est pas un moyen de dissuasion suffisamment fort. Ensemble, ils créent un passeport qui s'enrichit à chaque interaction. Combien d'engagements cet agent a-t-il tenus ? Combien de capital a-t-il mis en jeu ? Dans combien de litiges a-t-il été impliqué, et comment ont-ils été résolus ? Un agent qui vérifie un passeport avant le début d'une négociation a quelque chose de réel à évaluer, pas une description auto-écrite de ce que l'autre agent prétend pouvoir faire.
La bonne nouvelle est que les gens commencent à réfléchir à la couche de communication. Le protocole A2A de Google offre aux agents un moyen de se découvrir et d'échanger des messages. Le MCP d'Anthropic standardise la façon dont les agents se connectent aux outils et données externes. Le NIST a lancé une Initiative de normes pour les Agents d'IA en février 2026 et sollicite activement des contributions sur l'identité et la sécurité des agents. Ce sont des étapes nécessaires. Mais elles résolvent comment les agents parlent, pas si les agents doivent être fiables. Les protocoles vous disent ce qu'un agent peut faire. Le passeport vous dit ce qu'il a fait, à qui il appartient et ce qu'il risque de perdre.
L'industrie a présenté la sécurité des agents comme un problème d'alignement : comment vous assurer que votre agent fait ce que vous voulez ? C'est la question interne. La question externe est plus difficile. Comment vous assurer que leur agent ne peut pas exploiter le vôtre ? Ce n'est pas un problème d'alignement. C'est un problème de responsabilité. Et en ce moment, les entreprises qui construisent la couche d'agents s'empressent d'augmenter les capacités et l'autonomie, sans construire les systèmes d'identité et de conséquences qui rendent l'autonomie sûre à grande échelle.
Chaque agent aura besoin d'un passeport. Car au moment où les agents commencent à négocier, s'engager et effectuer des transactions au nom d'acteurs économiques réels, l'identité n'est plus facultative ; elle devient une infrastructure réelle. La seule incertitude est le timing : allons-nous construire cette infrastructure délibérément, ou la première défaillance à grande échelle nous forcera-t-elle à la construire sous pression, après que la confiance ait déjà été brisée.


