Une jeune pousse soutenue à hauteur d’un milliard de dollars illustre la persistance de l’intérêt des investisseurs pour l’intelligence artificielle. Mais sa position va à contre-courant d’une partie des tendances actuelles : Yann LeCun, chercheur de premier plan, estime que les grands modèles de langage ne constituent pas la voie la plus fiable pour obtenir des résultats durables et utiles à long terme.
Un pari sur des systèmes modulaires plutôt que sur les LLM
LeCun a quitté fin de l’année précédente son poste de responsable scientifique de l’IA chez Meta et a lancé Advanced Machine Intelligence Labs (AMI Labs). L’entreprise annonce vouloir rester centrée sur la recherche, sans promesse de produit commercial à court terme, tout en proposant une approche différente : des agents composés de modules spécialisés, entraînés et utilisés pour des tâches précises.
Dans cette vision, l’intelligence artificielle ne se résume pas à un modèle généraliste entraîné sur de vastes corpus textuels. Elle combine plutôt plusieurs briques fonctionnelles, chacune dédiée à un aspect du raisonnement ou de la perception, selon le contexte d’usage.
Les briques envisagées pour l’IA
Le système proposé par AMI Labs s’articule autour d’éléments complémentaires :
- Un modèle du monde adapté au domaine (ou au rôle) dans lequel l’IA évolue.
- Un acteur qui propose des actions ou des étapes suivantes, inspiré de l’apprentissage par renforcement.
- Un critique chargé d’évaluer les options envisagées à partir du modèle du monde et d’une mémoire à court terme, en s’appuyant aussi sur des règles prédéfinies.
- Un système de perception spécifique au besoin : vidéo, audio, texte, images, avec par exemple des méthodes de vision par apprentissage profond.
- Une mémoire à court terme pour conserver temporairement des informations.
- Un configurateur qui coordonne les échanges entre les modules.
Des données et des objectifs plus ciblés
Contrairement aux grands modèles de langage, souvent entraînés sur une source unique et généraliste (notamment le texte extrait du web), chaque version de l’IA chez AMI Labs recevrait des données pertinentes et orientées vers son environnement. L’importance relative de chaque module pourrait varier selon les contraintes : par exemple, un système manipulant des informations sensibles donnerait davantage de poids au module d’évaluation, tandis qu’un système réactif aux événements du monde réel prioriserait la perception.
Quel enjeu pour le secteur de l’IA ?
Au-delà de la technique, l’enjeu est financier. Ces dernières années, l’amélioration des LLM a souvent entraîné une hausse des coûts de calcul, liée à la taille des modèles et aux méthodes itératives nécessaires pour affiner la qualité des réponses. Dans ce contexte, seuls de très grands acteurs peuvent supporter durablement des cycles d’entraînement et d’inférence coûteux.
Le modèle défendu par AMI Labs repose sur l’idée que des modules plus restreints, spécialisés et entraînés pour un usage donné, pourraient exiger beaucoup moins de puissance GPU. L’entreprise envisage notamment des architectures où les modèles spécialisés pourraient se contenter d’environ quelques centaines de millions de paramètres, avec la perspective de coûts d’exécution plus bas. À terme, cela ouvrirait la voie à une IA potentiellement plus accessible et déployable localement, voire sur des appareils.
Un changement de logique, mais pas forcément une rupture immédiate
Les objectifs affichés s’inscrivent dans la continuité des progrès déjà observés dans d’autres systèmes d’apprentissage, capables d’apprendre des stratégies pour des environnements fermés comme certains jeux. Le débat porte toutefois sur la capacité de cette approche à atteindre la même polyvalence que les LLM, tout en tenant ses promesses de précision et de maîtrise des coûts.
En pratique, AMI Labs semble proposer une alternative plus pragmatique : au lieu d’attendre des améliorations substantielles d’un modèle généraliste, construire des agents dont le fonctionnement est aligné sur des tâches spécifiques. Si la démarche produit des résultats solides, elle pourrait repositionner les attentes du marché sur ce que l’IA devrait être réellement capable de faire — et à quel prix.
Pour se faire une idée des environnements de travail IA
Pour les équipes qui testent des approches modulaires ou travaillent sur des pipelines de traitement multimodal, un ordinateur compact mais performant peut faciliter les expérimentations. Par exemple, un mini PC orienté calcul peut être utile pour lancer des prototypes légers et itérer plus vite sur les composants.
Côté infrastructure, la création et l’entraînement de modèles plus petits restent souvent gourmands en stockage pour les jeux de données et les checkpoints ; un SSD NVMe de grande capacité peut aider à conserver rapidement les ressources nécessaires aux cycles d’expérimentation.

