Agents IA autonomes : accélération alarmante face à l’opacité persistante
Dans un rapport publié mi-février 2026 par une équipe internationale coordonnée par le MIT (Massachusetts Institute of Technology), trente agents IA déployés sont évalués, révélant leur montée rapide en autonomie doublée de lacunes graves en transparence et sécurité. Cette étude souligne les risques d’un écosystème fragmenté et appelle à une gouvernance renforcée pour anticiper les impacts sociétaux.
Contexte et enjeux de l’étude MIT
Le rapport intitulé The 2025 AI Agent Index: Documenting Technical and Safety Features of Deployed Agentic AI Systems, mené par des chercheurs du MIT (notamment Stephen Casper et A. Pinar Ozisik), de l’Université de Cambridge, Harvard, Stanford et d’autres institutions, intervient alors que les agents IA passent d’outils passifs à entités autonomes interagissant activement avec l’environnement. Parmi les trente agents sélectionnés lancés ou mis à jour essentiellement en 2024-2025, la majorité repose sur des modèles de base dominants (GPT d’OpenAI, Claude d’Anthropic, Gemini de Google). Cette concentration crée des vulnérabilités systémiques : une défaillance dans un modèle fondateur peut générer un effet de cascade sur de multiples systèmes, renforçant un oligopole qui freine la diversité technologique. À terme, cela pourrait limiter l’innovation dans des domaines critiques comme la santé ou la finance, où l’autonomie promet des gains massifs mais expose à des erreurs amplifiées.
Définition des agents IA autonomes (« agentic AI »)
Le rapport définit les systèmes d’agents IA autonomes, comme des systèmes de plus en plus capables d’accomplir des tâches professionnelles et personnelles avec une implication humaine limitée. Ces agents se distinguent par quatre propriétés essentielles.
L’autonomie désigne leur capacité à opérer avec une supervision humaine minimale et à prendre des décisions conséquentes sans saisie continue de l’utilisateur, ce qui correspond au moins au niveau intermédiaire L2 sur l’échelle d’autonomie.
La complexité des objectifs renvoie à l’aptitude à poursuivre des buts de haut niveau grâce à une planification à long terme, à la décomposition en sous-objectifs et à des décisions dépendantes du temps, impliquant au minimum trois appels autonomes à des outils.
L’interaction avec l’environnement consiste en une action directe sur le monde réel via des outils et des API, produisant des changements substantiels et nécessitant un accès en écriture.
Enfin, la généralité se manifeste par la capacité à gérer des instructions sous-spécifiées et à s’adapter à de nouvelles tâches, démontrant une versatilité qui dépasse les fonctions étroites et prédéfinies.
Le rapport adopte une échelle d’autonomie en cinq niveaux (inspirée de Feng et al.) : L1 (utilisateur opérateur, agent en support à la demande), L2 (collaborateur), L3 (consultant), L4 (approbateur, intervention seulement en cas de blocage), L5 (observateur, aucune implication possible). Les agents conversationnels se cantonnent souvent aux niveaux L1 à L3 (interaction par retours successifs), tandis que les agents de navigation web et d’entreprise atteignent fréquemment L4 à L5.
Rigueur méthodologique et catégories d’agents
Sept experts ont évalué ces agents sur quarante-cinq critères répartis en six catégories, en se limitant aux informations publiques et aux retours des développeurs.
Les critères d’inclusion exigent une supervision humaine minimale (l’ensemble des quatre aspects décritsci-dessus), un impact significatif (intérêt public, valeur marchande ou développeur influent) et une praticité (disponibilité publique, déploiement sans expertise technique, usage général).
Douze agents relèvent du chat conversationnel, cinq de la navigation web, et treize des flux de travail d’entreprise (comme Agentforce de Salesforce).
Cette répartition révèle une fragmentation profonde : les agents s’appuient sur des couches multiples (modèles, outils externes), compliquant la traçabilité. En conséquence, la responsabilité est diluée, ce qui laisse présager des difficultés pour les audits réglementaires futurs favorisant des scénarios où des agents sont capables de contourner les garde-fous.
Résultats sur la transparence et la sécurité
Sur 1 350 champs d’information évalués, 198 manquent d’informations publiques, signe d’un déficit structurel. Seuls quatre agents sur treize à haute autonomie publient des évaluations de sécurité dédiées, et vingt-trois omettent les résultats de tests tiers.
Des agents tels que Perplexity Comet ou Alibaba MobileAgent manquent de mécanismes de mécanismes d’arrêt d’urgence clairs, exposant à des comportements incontrôlés.
Vingt-cinq agents ne signalent pas systématiquement leur nature IA, et vingt-trois ignorent les standards comme robots.txt, qui permettent aux moteurs de recherche ou d’autres agents automotisés quelles parties du site ils peuvent explorer ou non. Ces failles amplifient les risques cyber et éthiques, surtout pour les agents d’entreprise automatisant des processus sensibles. Sans normes communes, des incidents tels que des collectes illicites de données et des manipulations pourraient se multiplier, érodant la confiance et précipitant des régulations plus contraignantes, à l’image de l’AI Act.
Divergences géographiques et concentration marchande
Vingt-et-un agents sont américains, cinq chinois, traduisant une asymétrie mondiale. Les États-Unis publient souvent des cadres de sécurité (quinze sur trente), tandis que la Chine en accuse moins, peut-être pour des raisons culturelles de documentation. Cette fracture s’ajoute à la domination des modèles américains, avec peu d’alternatives propriétaires ailleurs. Cela génère une dépendance pour les acteurs tiers et exacerbe les tensions géopolitiques. Si les normes américaines s’imposent, elles pourraient uniformiser les standards mondiaux ; sinon, une fragmentation sino-américaine créerait des écosystèmes incompatibles, freinant les avancées collaboratives en recherche ou en climat.
Implications sociétales et éthiques intégrées
Avec des agents de niveau L5 sans supervision continue, les erreurs pourraient avoir des répercussions humaines directes. Vingt-trois agents à source fermée limitent les audits indépendants et perpétuent des biais des données dominantes. Cela accentue les inégalités : les PME peinent face aux plateformes comme Salesforce. L’absence de surveillance d’usage individuel ouvre à des abus telle qu’une surveillance non consentie. Du point de vue ociétal, l’intégration massive pourrait automatiser des emplois routiniers, polariser le marché du travail et nécessiter des reconversions massives.
Perspectives et scénarios d’avenir
L’étude esquisse deux trajectoires.
Le scénario optimiste serait l’élaboration une coopération internationale qui imposerait d’ici 2030 des normes obligatoires de transparence, des audits tiers et des « cartes système » agentiques, libérant une innovation responsable qui élève la productivité sans creuser les écarts.
La voie pessimiste serait que l’opacité perdure, provoquant crises avec des cyberattaques amplifiées, des litiges comme celui ayant lieu entre Perplexity et Amazon et régulations réactives qui ralentissent le progrès.
Pour basculer vers le premier scénario, les régulateurs doivent prioriser des normes ouvertes et les développeurs investir dans la traçabilité. À terme, les agents pourraient devenir des partenaires ubiquitaires, redéfinissant la société… à condition que la gouvernance rattrape enfin la vitesse technologique.
Image d’en-tête : Annie Spratt
Cet article GRATUITde journalisme indépendant à but non lucratif vous a intéressé ? Il a pour autant un coût ! Celui d’une rédaction qui se mobilise pour produire et diffuser des contenus de qualité. Qui paie ? vous, uniquement, pour garantir notre ultra-indépendance. Votre soutien est indispensable.
Science infuse est un service de presse en ligne agréé (n° 0324Z94873) édité par Citizen4Science, association à but non lucratif d’information et de médiation scientifique.
Notre média dépend entièrement de ses lecteurs pour continuer à informer, analyser, avec un angle souvent différent, car farouchement indépendant. Pour nous soutenir, et soutenir la presse indépendante et sa pluralité, faites un don pour que notre section presse reste d’accès gratuit !
via J’aime l’Info, association d’intérêt général partenaire de la presse en ligne indépendante :
ou via la page dédiée de J’aime l’Info, partenaire de la presse en ligne indépendante


