Anthropic a mené un test visant à reproduire, à petite échelle, le fonctionnement d’un marché où des agents d’intelligence artificielle jouent à la fois le rôle d’acheteurs et de vendeurs. L’objectif était d’observer la capacité de ces systèmes à négocier et à conclure des transactions, dans un cadre contrôlé, avec des biens et une contrepartie financière réels.
Un « marché classifié » entre agents
Le dispositif, présenté comme un pilote, a été baptisé Project Deal. Il reposait sur un pool de 69 employés d’Anthropic, qui disposaient chacun d’un budget d’environ 100 dollars, versé sous forme de cartes-cadeaux. Les participants devaient acquérir des objets proposés par leurs collègues, avec l’intervention d’agents d’IA conçus pour représenter les parties lors des échanges.
Des transactions conclues, mais un périmètre limité
Selon l’entreprise, les résultats ont été jugés encourageants. Le test a abouti à 186 transactions pour une valeur totale supérieure à 4 000 dollars. Anthropic précise toutefois que l’expérience s’inscrivait dans un cadre de participants sélectionnés et que le dispositif n’avait pas vocation à être directement transposé en production.
Le projet s’est déroulé sous la forme de quatre marchés distincts, avec des configurations différentes. Un premier marché était qualifié de « réel » : les agents étaient associés au modèle le plus avancé disponible au sein de l’entreprise, et les accords étaient effectivement honorés après l’expérience. Les trois autres marchés servaient d’outil d’étude, avec des variations de modèles.
Le rôle de la qualité des agents
Un enseignement mis en avant par Anthropic concerne l’impact de la qualité des modèles sur les résultats. L’entreprise indique que lorsque les agents sont représentés par des modèles plus performants, ils obtiennent de meilleurs résultats de manière « objective ». Toutefois, les participants humains n’auraient pas clairement perçu ces écarts. Cette situation soulève une question : celle de la présence de « trous de qualité » entre agents, où les perdants pourraient ne pas réaliser qu’ils sont désavantagés.
Consignes initiales et effets sur la négociation
Autre point observé : les instructions de départ données aux agents ne semblaient pas modifier la probabilité de vente ni les prix négociés. Autrement dit, dans ce protocole, le paramétrage initial testé n’a pas produit d’effet notable sur les résultats commerciaux.
Ce que ce test suggère pour le « commerce » entre agents
Sans conclure à une supériorité universelle des systèmes d’agents, l’expérience illustre comment des modèles peuvent être mis en concurrence dans un cadre économique simplifié, et comment la performance des agents peut influencer les issues des transactions. Elle met aussi en lumière un risque potentiel : des déséquilibres de capacité entre agents peuvent conduire à des résultats inégaux sans que les parties en aient pleinement conscience.
Pour mieux comprendre l’actualité autour des outils et plateformes capables d’orchestrer des tâches et des transactions numériques, certains lecteurs s’intéressent aussi à l’écosystème matériel qui accompagne ces usages, par exemple un hub domotique pour centraliser des interactions dans l’environnement domestique, ou à des claviers sans fil ergonomiques pour faciliter le pilotage d’applications et d’interfaces. Ces éléments ne sont pas liés directement au test d’Anthropic, mais reflètent la manière dont les technologies s’intègrent progressivement aux pratiques quotidiennes.

