
Lors de la conférence NVIDIA GTC 2025, l’un des panels les plus attendus a réuni les dirigeants de OneX, Skilled AI, Agility Robotics, Boston Dynamics et Nvidia autour d’un constat partagé : la robotique entre dans une nouvelle phase. Grâce aux avancées des modèles fondamentaux, à la baisse des coûts hardware et à la génération de données à grande échelle, l’intelligence artificielle quitte l’écran pour s’ancrer dans le monde physique.
Longtemps freinée par la complexité des systèmes, la rareté des données motrices et le coût des machines, la robotique s’aligne enfin sur la trajectoire exponentielle qu’ont connue le traitement du langage et la vision par ordinateur. L’IA ne se contente plus de prédire. Elle agit, teste, apprend. Et elle le fait désormais en boucle fermée, dans un monde où la gravité, l’inertie et les objets imposent leurs contraintes. C’est ce changement de paradigme que cette table ronde a exposé sans détour.
La robotique, longtemps à la traîne, entre dans son moment ChatGPT
Malgré ses origines communes avec l’IA, la robotique est longtemps restée à la marge des grandes avancées. Ses limitations relevaient moins de la théorie que de la pratique : peu de données exploitables, des contraintes physiques fortes, une adoption lente, un coût élevé.
« L’IA générative s’est construite sur un carburant facile : les textes. En robotique, il n’y a pas de Wikipédia des gestes » – Jim Fan, co-lead de Nvidia GEAR Lab.
Mais ce frein structurel est en train de céder sous l’effet conjugué de trois révolutions : la maturité des modèles multimodaux, l’accès à une puissance de calcul abordable, et la création de pipelines de données artificielles massives.
De la perception à l’action : l’IA devient incarnée
Ce qui distingue l’IA embarquée de l’IA logicielle, c’est l’obligation d’interagir. Un chatbot hallucine ? On corrige après coup. Un robot hallucine ? Il casse une tasse, rate une prise ou devient dangereux.
Le robot ne peut pas se contenter de prédire. Il doit expérimenter.
« Le robot n’a pas le droit à l’erreur. Il agit dans un monde où la gravité sanctionne l’imprécision » – Deepak Pathak, CEO de Skilled AI.
C’est ce principe qui fonde l’intérêt nouveau pour l’IA incarnée. Contrairement aux LLMs, qui apprennent passivement, l’IA robotique apprend par boucle fermée : perception, action, retour du réel. C’est l’expérience qui enseigne.
Une architecture nouvelle : du photon au mouvement
Chez Nvidia, cette approche a donné naissance au projet GROOT, dévoilé lors de la keynote de Jensen Huang. Il s’agit d’un modèle fondation de 2 milliards de paramètres, open source, capable de transformer des images captées par une caméra en signaux moteurs continus.
« L’objectif est simple : créer une IA capable de passer des pixels aux actions, sans pipeline intermédiaire » – Jim Fan
Cette approche rappelle celle qui a permis aux LLMs de percer : un modèle unique, une tâche universelle, un entraînement massif. Le modèle apprend à partir de trois sources de données, organisées en pyramide :
- Données réelles : issues de téléopérations sur robots physiques.
- Données simulées : générées via le moteur Isaac Sim.
- Données synthétiques : vidéos générées par des modèles de simulation neuronale.
Le prix du hardware chute. Les cas d’usage s’ouvrent.
Jusqu’ici, le coût du matériel bridait les expérimentations. Mais les composants robotiques bénéficient désormais des progrès de l’électronique grand public : batteries, capteurs, caméras, unités de calcul.
« Il y a 10 ans, un robot humanoïde coûtait 1,5 million de dollars. Aujourd’hui, on peut en produire pour moins de 40 000 € » – Aaron Saunders, CTO de Boston Dynamics
Cette baisse permet aux entreprises comme Agility Robotics ou OneX d’envisager des déploiements en série dans les entrepôts, les chaînes de montage, voire les foyers. Le robot humanoïde devient un produit potentiellement scalable.
Cross-embodiment : le grand défi du modèle universel
L’un des obstacles majeurs reste la généralisation d’un même modèle sur plusieurs corps robotiques. Ce que l’on nomme « cross-embodiment » pose des questions complexes de dynamique, d’inertie, de calibration, de perception.
« Même deux robots identiques ne réagissent pas de façon identique. La mécanique introduit du bruit, même au sein d’une même génération de machines » – Bernd Bornik, CEO de OneX
Plusieurs stratégies sont testées :
-
- Apprentissage par diversification : multiplier les configurations physiques en simulation pour entraîner à la variabilité.
- Encodage de la structure du robot : décrire la morphologie comme une séquence vectorielle (robot grammar).
- Contextualisation dynamique : injecter dans le modèle l’historique de comportement du robot pour qu’il s’auto-adapte.
Les humains, première source de données motrices
Faute de bases de données massives de gestes robotiques, les chercheurs se tournent vers une source omniprésente : l’humain.
Les gestes quotidiens filmés deviennent une mine d’or pour inférer des comportements motorisés. Il ne s’agit plus de copier, mais d’interpréter la logique du geste.
« Le robot n’a pas besoin d’avoir cinq doigts pour apprendre à ouvrir un frigo. Il a besoin de comprendre pourquoi on cherche la poignée » – Deepak Pathak
Ce que la robotique apprend à l’IA (et pas l’inverse)
Depuis ChatGPT, on se demande ce que les LLMs peuvent faire pour la robotique. Mais l’inverse devient plus stratégique : et si l’IA embarquée devenait le laboratoire ultime de l’intelligence artificielle ?
-
- La robotique impose l’ancrage dans le réel.
- Elle force à générer ses propres données.
- Elle supprime les hallucinations en les confrontant aux conséquences physiques.
« Un modèle qui agit dans le monde apprend mieux qu’un modèle qui commente le monde » – Bernd Bornik
La suite : un changement d’échelle plus qu’une révolution
Dans les deux à cinq prochaines années, les robots généralistes ne remplaceront pas les humains. Mais ils atteindront un seuil d’utilité suffisant pour intégrer les flux de travail dans des tâches répétitives, dangereuses ou pénibles.
L’enjeu ne sera plus de savoir si un robot peut accomplir une tâche, mais combien de tâches il peut accomplir sans reprogrammation.
« L’adoption des robots sera plus rapide qu’on ne le pense. Le cerveau est prêt. Le corps est presque là. » – Jim Fan
- Pourquoi la robotique est (enfin) devenue l’application ultime de l’IA générative - 23/04/2025
- Levée de fonds piégée : comment un cybercriminel a tenté d’infiltrer un fonds de capital-risque pendant deux mois - 23/04/2025
- Hustle Kingdoms : l’industrialisation silencieuse de la cybercriminalité en Afrique de l’Ouest - 23/04/2025