L’Autorité australienne de supervision financière alerte les établissements régulés sur des lacunes dans la gouvernance et l’assurance des agents d’IA. Alors que banques et organismes de retraite développent l’usage de l’IA, y compris dans des opérations destinées aux clients, le régulateur estime que plusieurs risques restent insuffisamment cadrés, notamment autour du contrôle, de la résilience opérationnelle et de la sécurité.
Une revue ciblée qui met en évidence des écarts
L’APRA a mené, fin 2025, un examen ciblé portant sur des entités importantes afin d’évaluer l’adoption de l’IA et les risques prudentiels associés. Le régulateur indique que l’IA est déjà utilisée dans toutes les structures étudiées, mais que le niveau de maturité varie fortement sur la gestion des risques et la capacité à maintenir les opérations en cas de dysfonctionnement.
Selon l’autorité, les conseils d’administration manifestent un intérêt marqué pour les gains de productivité et l’amélioration de l’expérience client. En revanche, beaucoup d’entre eux seraient encore en phase de construction sur la manière d’encadrer les risques liés à l’IA, ce qui limite la qualité du pilotage et du contrôle.
Des limites dans le contrôle des risques liés aux modèles
L’APRA estime que certains conseils s’appuient trop largement sur des présentations fournisseurs et sur des synthèses, sans toujours exercer une analyse approfondie des risques, par exemple le comportement imprévisible des modèles ou l’impact d’une défaillance de l’IA sur des opérations critiques.
Le régulateur recommande de renforcer la compréhension de l’IA au sein des instances dirigeantes afin d’établir une stratégie cohérente. Il appelle également à aligner cette stratégie avec l’appétit pour le risque de l’institution, et à définir des procédures de suivi et des actions à déclencher en cas d’erreur.
Concernant les usages, l’APRA cite notamment des expérimentations dans l’ingénierie logicielle, le tri des dossiers de réclamation ou encore le traitement des demandes de prêt. D’autres cas d’usage incluent la lutte contre les fraudes et les arnaques, ainsi que l’assistance aux interactions avec les clients.
Le régulateur met en garde contre une approche qui traiterait le risque de l’IA comme un simple prolongement d’autres technologies. L’APRA souligne que le fonctionnement des modèles, les biais possibles et la manière dont leurs sorties évoluent ne se gèrent pas de la même façon.
Surveillance du comportement, changements et désengagement
Parmi les points jugés insuffisants, l’autorité relève des lacunes dans le suivi du comportement des modèles, la gestion des changements et le désengagement (la sortie progressive) des solutions d’IA. Elle demande également de tenir à jour des inventaires des outils d’IA et de clarifier la responsabilité nominative pour chaque instance déployée.
L’APRA insiste enfin sur la nécessité de maintenir une implication humaine pour les décisions considérées comme à haut risque.
Des menaces qui évoluent avec l’IA
La cybersécurité figure aussi au cœur des préoccupations. Le régulateur indique que l’adoption de l’IA peut modifier l’environnement des menaces en ajoutant de nouveaux vecteurs d’attaque, tels que l’injection de prompts ou des intégrations insuffisamment sécurisées.
Dans certains cas, les pratiques d’identité et de contrôle des accès ne tiendraient pas compte d’éléments non humains, comme les agents d’IA eux-mêmes. Par ailleurs, l’importance prise par l’ingénierie logicielle assistée par l’IA augmente la pression sur les contrôles de changement et de mise en production.
L’APRA demande d’appliquer des mesures de sécurité adaptées aux workflows d’agents autonomes ou agentic, incluant la gestion des accès privilégiés, les règles de configuration et la mise à jour logicielle. Le régulateur recommande aussi de tester la sécurité du code généré par l’IA.
Autre sujet : la dépendance à un fournisseur unique pour plusieurs instances d’IA. L’APRA note que seules quelques entités seraient en mesure de présenter un plan de sortie ou une stratégie de remplacement en cas de changement de fournisseur.
L’autorité rappelle enfin qu’une partie de l’IA peut se retrouver dans des dépendances amont, parfois sans que les institutions aient une visibilité complète.
Gouvernance de l’accès : l’accent mis sur les identités non humaines
La question de l’identité et des permissions fait écho à des travaux de standardisation, notamment au sein de l’Alliance FIDO. Un groupe de travail sur l’authentification agentique prépare des spécifications pour des transactions déclenchées par des agents.
FIDO estime que plusieurs modèles existants d’authentification et d’autorisation ont été conçus pour des interactions entre humains, et non pour des actions déléguées effectuées par des systèmes. Le point central est de pouvoir vérifier qui (ou quoi) autorise une action et dans quelles conditions.
Dans cet écosystème, certains fournisseurs présentent leurs approches. Des ressources de sécurité, conçues pour relier les contrôles de sécurité à des environnements impliquant des modèles de langage et des agents, sont également mises à disposition pour aider les organisations à cartographier les exigences de contrôle.
Sur le terrain, la mise en œuvre de ces principes peut s’appuyer sur des solutions de gestion des accès et des identités. À titre indicatif, des organisations peuvent s’intéresser à des plateformes de gestion des identités comme des logiciels IAM/gestion des accès, afin de mieux encadrer les privilèges et les droits applicables aux composants non humains. De même, la journalisation et le suivi des modifications peuvent être renforcés via des outils de collecte et d’analyse des journaux (SIEM/log management), utiles pour détecter des anomalies liées à des intégrations ou à des actions d’agents.

