La situation a changé. Les robots humanoïdes ne sont pas encore tous en service, mais l’argent afflue : en 2025, entreprises et investisseurs ont mis 6,1 milliards de dollars dans ce domaine, soit quatre fois plus qu’en 2024.
Pourquoi ? Une transformation majeure dans la manière dont les machines apprennent à agir dans le monde réel.
Imaginez vouloir installer chez vous des bras robotiques pour ne faire qu’une tâche : plier du linge. Comment leur apprendre ? On pourrait commencer par écrire des règles : reconnaître le tissu, estimer jusqu’où il peut se déformer sans se déchirer, identifier une pièce de vêtement (col, manches), puis déplacer la pince, soulever, plier à une distance précise, et recommencer. Si le vêtement est tourné ou tordu, il faut ajuster le plan. Le problème, c’est que le nombre de règles explose très vite : il faudrait prévoir toutes les situations possibles.
Vers 2015, l’approche a commencé à basculer. Au lieu d’écrire autant de consignes, on peut créer une simulation numérique : bras, vêtements et environnement virtuels. Le système reçoit alors une récompense quand il réussit, et une pénalité quand il échoue. En enchaînant de nombreuses essais, il améliore ses méthodes, comme certains systèmes d’IA apprennent grâce à l’expérimentation.
Le boom actuel a été accéléré par l’arrivée de ChatGPT en 2022. Les modèles de langage utilisent de grandes quantités de données pour prédire la suite logique d’un texte, et des modèles adaptés à la robotique peuvent aussi exploiter des images, des capteurs et la position des articulations afin de choisir la prochaine action. Résultat : de nombreuses commandes sont générées en temps réel pour guider les mouvements.
Ce changement de logique — s’appuyer sur des modèles entraînés sur de vastes données — fonctionne aussi bien pour des robots qui parlent, qui se déplacent, ou qui réalisent des tâches complexes. D’autres idées ont accompagné cette évolution, notamment utiliser des robots même imparfaits pour qu’ils apprennent de l’environnement. C’est ainsi que la robotique repart à grande vitesse.
Jibo
Jibo
Un robot social mobile, bien avant l’ère des LLM.
En 2014, une chercheuse en robotique du MIT, Cynthia Breazeal, a présenté Jibo : un petit robot pensé pour interagir avec les familles. Il ressemblait, à sa façon, à une lampe. Le projet a attiré 3,7 millions de dollars via une campagne de financement participatif, et les précommandes coûtaient environ 749 dollars.
Au début, Jibo savait se présenter et danser pour divertir les enfants, mais ses capacités restaient limitées. La vision était d’en faire un assistant “incarné”, capable de gérer des tâches comme les rendez-vous, les e-mails ou des histoires. Malgré une base d’utilisateurs fidèles, l’entreprise a finalement fermé en 2019.
A posteriori, le principal manque était une compréhension et un traitement du langage plus performants. Jibo devait rivaliser avec Siri et Alexa, qui, à l’époque, reposaient largement sur du script : la voix était convertie en texte, puis analysée pour produire une réponse choisie parmi des extraits prévus. Ces réponses pouvaient être agréables, mais elles étaient aussi répétitives et parfois froides — un handicap pour un robot censé être chaleureux et vraiment social.

