Cinq responsables impliqués à chaque niveau de la chaîne de valeur de l’intelligence artificielle se sont penchés, lors d’un échange à la Milken Global Conference, sur un constat qui s’impose : les limites ne sont pas seulement logicielles. Elles s’expriment aussi dans la production des puces, dans l’énergie disponible, dans l’accès aux données du monde réel et, plus largement, dans la manière dont les États entendent contrôler des systèmes capables d’agir physiquement.
Sur scène, ils ont aussi évoqué l’architecture même de l’IA, la question de la confiance lorsque des systèmes agissent pour le compte des entreprises, ainsi que l’impact possible sur la génération qui utilisera ces outils au quotidien.
Des goulots d’étranglement plus précoces que prévu
Le premier frein est tangible : les puces. Le dirigeant d’ASML a souligné que, malgré l’accélération des capacités industrielles, le marché pourrait rester sous-approvisionné sur plusieurs années. Autrement dit, les grands acheteurs de puissance de calcul pourraient ne pas obtenir l’intégralité de ce qu’ils anticipent, malgré les investissements consentis.
La demande, elle, ne faiblit pas. Le responsable de Google Cloud a rappelé la dynamique de croissance de son activité et l’ampleur des engagements en attente de livraison. Son message était clair : l’appétit pour l’infrastructure IA est bien réel.
Pour certains usages, la limite n’est pas le silicium, mais le monde. Un autre intervenant, spécialisé dans l’autonomie pour véhicules et robots, a expliqué que la difficulté principale réside dans la collecte de données issues d’environnements réels. Les simulations sont utiles, mais elles ne remplacent pas totalement l’observation directe : selon lui, l’entraînement “du monde physique” à grande échelle à partir de données purement synthétiques prendra du temps.
L’énergie : le prochain verrou structurel
Après les puces, l’enjeu énergétique. La discussion a convergé vers un point : davantage de calcul signifie davantage de consommation, donc davantage de contraintes. L’exploration de sites de data centers dans l’espace a été évoquée comme une piste sérieuse, même si sa mise en œuvre implique de nombreux défis techniques, notamment pour l’évacuation de la chaleur.
Plus largement, plusieurs intervenants ont défendu l’idée que l’intégration “de bout en bout” peut améliorer l’efficacité. En concevant ensemble le matériel et la manière d’exécuter les modèles, les systèmes peuvent optimiser le rapport performance/énergie. Mais le message final reste prudent : l’efficacité ne supprime pas la réalité du coût énergétique.
Vers de nouveaux modèles d’intelligence
Certains acteurs déplacent le centre de gravité. Là où une partie de l’écosystème se concentre sur l’échelle et l’optimisation des modèles de langage, une entrepreneure issue de la physique a présenté une approche différente, basée sur des modèles cherchant à capturer des règles plutôt qu’à prédire la suite de tokens.
Son argument est que la “compréhension” utile à des systèmes immergés dans le réel pourrait nécessiter une logique plus proche des mécanismes physiques que des corrélations linguistiques. Elle affirme aussi concevoir des systèmes capables d’actualiser leurs connaissances en fonction des données, sans repartir de zéro à chaque changement massif.
Agents numériques et garde-fous en entreprise
L’IA passe du “outil” au “collaborateur”. Un dirigeant de Perplexity a décrit l’évolution de son offre vers ce qu’il appelle un “travailleur numérique”, conçu pour exécuter des tâches à la place d’un utilisateur, sous sa supervision.
Cette vision soulève immédiatement la question du contrôle. La réponse a mis en avant un principe : la granularité des autorisations. Les administrateurs peuvent limiter l’accès à des connecteurs ou des outils, et distinguer ce qui peut être lu de ce qui peut être modifié. Lorsque l’agent agit, il doit généralement proposer un plan et solliciter une validation préalable, afin de réduire les risques dans les environnements sensibles.
Souveraineté et IA physique
La géopolitique change avec le passage au physique. Un intervenant a insisté sur le fait que l’IA embarquée dans des véhicules autonomes, des drones ou des machines industrielles n’est pas perçue comme un simple logiciel. Elle touche directement à la sécurité nationale, aux données collectées et à la responsabilité des systèmes opérant sur un territoire.
Dans ce contexte, le contrôle ne relève pas seulement de la cybersécurité ou de la conformité. Il devient aussi une question de souveraineté : selon lui, peu de pays disposent des capacités nécessaires pour déployer une intelligence physique avancée tout en maîtrisant ses dépendances technologiques.
Une question de génération : créativité ou déclin du jugement ?
L’échange a fini par une interrogation plus existentielle : les outils IA vont-ils fragiliser la pensée critique des prochaines générations ? Les intervenants se sont montrés plutôt confiants, en soulignant que ces technologies pourraient aussi accélérer la résolution de problèmes complexes — santé, climat, infrastructures — que les sociétés n’ont pas su traiter faute de moyens, de coordination ou de puissance de calcul.
Ils ont aussi apporté une nuance pratique : même si certaines tâches d’entrée de gamme peuvent se transformer ou disparaître, l’accès à des outils capables de lancer des projets reste, selon eux, plus démocratisé que jamais. Enfin, concernant l’impact sur le travail, un intervenant a distingué le savoir-faire intellectuel, susceptible d’être automatisé, du travail physique souvent lié à des pénuries et à une moindre attractivité de certains métiers. Dans ces secteurs, l’IA physique serait plutôt appelée à combler des manques déjà présents.
Ce que ces échanges révèlent, au-delà des personnalités
Au total, la discussion met en évidence une tendance : l’économie de l’IA ne bute plus uniquement sur les performances des modèles. Elle se heurte à des contraintes industrielles (production de puces), à des limites physiques (énergie, refroidissement, chaleur), à des réalités opérationnelles (données du monde réel) et à des enjeux sociétaux et politiques (contrôle, sécurité, souveraineté). Dans ce cadre, l’innovation progresse moins par “effet magique” que par ajustement simultané des technologies, des infrastructures et des règles d’usage.
Pour suivre l’évolution de ces sujets côté matériel, certains lecteurs se tournent aussi vers des solutions de calcul et de gestion de l’énergie adaptées aux environnements de serveurs. Par exemple, un onduleur pour serveurs peut être utile pour comprendre l’importance de la continuité d’alimentation, souvent sous-estimée dans les discussions sur la puissance de calcul. Côté stockage et accès aux données, un SSD NVMe orienté entreprise pour station de travail illustre aussi comment la performance et la disponibilité des données deviennent un paramètre central lorsque les systèmes IA s’industrialisent.

