AI : l’écart se creuse entre performance des modèles et évaluation de la sécurité (selon le rapport Stanford AI Index 2026)
Le rapport Stanford AI Index 2026 dresse un tableau nuancé de l’état de l’intelligence artificielle. S’il montre que la compétition progresse vite entre pays, il souligne surtout un point plus préoccupant : la capacité des modèles à performer devance largement la façon dont ils sont évalués sur les risques, notamment en matière de sécurité.
États-Unis et Chine : la suprématie américaine n’est plus aussi stable qu’avant
L’idée d’un leadership durable des États-Unis sur la performance des modèles doit être actualisée. Le rapport indique que, depuis le début de 2025, les positions de tête entre les modèles américains et chinois ont changé à plusieurs reprises. En mars 2026, le meilleur modèle américain devance celui de référence côté Chine de seulement 2,7 %.
Les États-Unis restent plus présents en nombre de modèles de pointe (50 en 2025 contre 30 pour la Chine) et disposent d’une base de brevets à fort impact. Mais la Chine gagne en volume de publications, en part de citations et en résultats de brevets. Sa part parmi les 100 articles d’IA les plus cités est passée de 33 en 2021 à 41 en 2024. Et la Corée du Sud se distingue aussi avec davantage de brevets par habitant.
Le rapport rappelle toutefois une fragilité structurelle côté infrastructures : les États-Unis hébergent 5 427 centres de données IA, loin devant les autres pays, mais la fabrication des puces les plus avancées dépend largement d’un acteur unique (TSMC). L’ensemble de la chaîne d’approvisionnement mondiale passe par cette même fonderie à Taïwan, même si des capacités aux États-Unis ont commencé en 2025.
La sécurité des modèles progresse moins vite que leurs performances
Le constat le plus saillant concerne l’évaluation de la sécurité. Les développeurs de modèles « frontier » publient très souvent des résultats sur des tests de capacité. En revanche, les benchmarks dédiés à l’« IA responsable » sont beaucoup moins systématiques.
Dans le tableau du rapport, de nombreuses lignes restent vides : seuls quelques modèles déclarent des résultats sur plusieurs indicateurs de sécurité et de responsabilité. Le rapport souligne aussi que, même lorsque des efforts existent en interne (tests d’alignement, red-teaming), ils sont rarement publiés avec des protocoles standardisés permettant une comparaison externe fiable.
À cela s’ajoute une hausse des incidents documentés. Selon la base de données AI Incident Database, les incidents recensés atteignent 362 en 2025, contre 233 en 2024. De son côté, l’OECD AI Incidents and Hazards Monitor, basé sur une détection automatisée plus large, atteint un pic de 435 incidents mensuels en janvier 2026 (moyenne mobile sur six mois : 326).
Des arbitrages difficiles, et une gouvernance encore insuffisante
Le rapport met en évidence des limites dans la réponse organisationnelle. Une enquête réalisée avec McKinsey indique que la part des organisations jugeant leur gestion des incidents IA « excellente » recule fortement (de 28 % en 2024 à 18 % en 2025). Les évaluations « bonnes » baissent aussi, tandis que davantage d’entreprises déclarent vivre 3 à 5 incidents (de 30 % à 50 %).
Sur le fond, l’amélioration de l’IA responsable se heurte à des compromis : renforcer la sécurité peut parfois réduire la précision, et améliorer la confidentialité peut affecter l’équité. Le rapport souligne aussi qu’il n’existe pas encore de cadre mature et largement partagé pour gérer ces arbitrages, et que certaines données normalisées manquent encore pour suivre l’évolution dans le temps sur plusieurs dimensions (notamment l’équité et l’explicabilité).
Adoption plus large, inquiétudes plus fortes : le décalage experts-public persiste
Sur l’opinion publique, les tendances évoluent en même temps dans deux directions. Globalement, 59 % des personnes interrogées estiment que les bénéfices de l’IA dépassent ses inconvénients (contre 55 % en 2024). Mais la proportion de répondants se disant « nerveux » face aux produits et services d’IA passe à 52 %, en hausse de 2 points en un an.
Le rapport note surtout un écart marqué entre experts et grand public sur l’impact de l’IA sur l’emploi. 73 % des experts anticipent un effet positif, contre 23 % seulement pour le grand public. L’écart est également important sur l’économie (mêmes ordres de grandeur) et sur le domaine médical, où les experts se montrent bien plus optimistes.
Ces divergences comptent car la confiance du public influence la régulation, qui à son tour conditionne le déploiement des systèmes. À ce sujet, le rapport pointe un élément frappant : les États-Unis affichent le niveau de confiance le plus bas dans leur propre capacité à réguler l’IA de manière responsable (31 %), contre 54 % en moyenne dans le monde. Les pays d’Asie du Sud-Est sont parmi les plus confiants (par exemple Singapour à 81 %, l’Indonésie à 76 %).
En Europe, la perception est plus favorable : dans une enquête Pew Research de 2025 portant sur 25 pays, la confiance médiane envers l’Union européenne pour réguler efficacement l’IA est de 53 %, contre 37 % pour les États-Unis et 27 % pour la Chine.
Vous travaillez dans un contexte où les modèles d’IA sont utilisés pour analyser des données rapidement ? Pour des démonstrations ou du visionnage de contenus en haute résolution, vous pouvez consulter des moniteurs 4K IPS adaptés aux usages pro sur Amazon afin d’optimiser confort visuel et précision.
Pour suivre des contenus techniques ou des supports de formation liés à l’IA, vous pouvez aussi consulter des webcams 1080p avec micro USB sur Amazon lorsque des échanges en visioconférence font partie du travail.

