Malgré les opportunités offertes par l’IA, il existe toujours un risque de dysfonctionnement ou de compromission. Selon une nouvelle étude de ISACA, la plupart des organisations interrogées ne savent pas comment arrêter rapidement un système en cas d’urgence—ni même identifier l’origine du problème.
D’après le rapport d’ISACA, 59 % des professionnels de la “digital trust” ne comprennent pas la capacité réelle de leur entreprise à interrompre et stopper un système d’IA lors d’un incident de sécurité. Seuls 21 % indiquent pouvoir intervenir de façon significative en une demi-heure. Résultat : des systèmes potentiellement corrompus peuvent continuer à fonctionner sans contrôle clair, avec un risque de dommages difficiles à réparer.
Ali Sarrafi, CEO et fondateur de Kovant, explique que le problème vient d’un manque de gouvernance. “Les entreprises intègrent des systèmes d’IA dans des tâches critiques sans mécanismes pour superviser, auditer et rendre des comptes. Si l’organisation ne peut pas arrêter l’IA rapidement, expliquer son comportement ou déterminer qui est responsable, alors elle n’en a pas vraiment le contrôle.”
Défaillances et risques liés à l’IA
Globalement, 42 % seulement des répondants se disent capables d’analyser et de clarifier les incidents graves liés à l’IA, ce qui peut entraîner des pannes opérationnelles et des risques de sécurité. En l’absence d’explications destinées aux dirigeants et aux régulateurs, les entreprises s’exposent aussi à des sanctions et à une perte de confiance du public.
La question de la responsabilité reste également floue : 20 % déclarent ne pas savoir qui serait tenu responsable en cas de dommage causé par un système d’IA, et 38 % identifient le conseil d’administration ou la direction exécutive comme responsables en dernier ressort.
Pour Sarrafi, freiner l’adoption de l’IA ne suffit pas : il faut repenser sa gestion. Les systèmes doivent être placés dans une couche de pilotage structurée, avec un responsable identifié, des procédures d’escalade et la possibilité de mettre sur pause ou de désactiver instantanément l’IA si un seuil de risque est atteint.
Il existe toutefois un point positif : 40 % des répondants indiquent que des humains valident presque toutes les actions de l’IA avant déploiement, et 26 % évaluent les résultats. Mais sans une gouvernance renforcée, cette supervision ne suffit pas forcément à détecter et corriger les problèmes avant qu’ils ne s’aggravent.
L’étude souligne aussi des “angle morts” organisationnels : plus d’un tiers des entreprises ne demandent pas aux employés de signaler où et quand l’IA est utilisée dans les livrables professionnels. Malgré des exigences réglementaires plus strictes, beaucoup d’organisations ne mettent pas en place une approche sûre et efficace—souvent traitée comme un sujet purement technique, alors qu’elle nécessite une gestion globale.
En résumé, une meilleure gouvernance et une définition claire des responsabilités sont indispensables : sans contrôle, même de petites erreurs peuvent provoquer des conséquences financières et réputationnelles importantes.
(Crédit image : Foundry Co, Pixabay)











