AI FIRSTTRENDS

Une IA sans corps n’a pas d’avenir

L’intelligence artificielle générative impressionne par ses capacités langagières. Mais elle reste enfermée dans un monde de textes, sans perception, sans intuition, sans vécu. À South by Southwest, Amy Webb, fondatrice du Future Today Strategy Group (FTSG), a livré un message clair : “AI doesn’t have any experience in our physical world, which means no lived experience, no intuition, no common sense.”

Selon elle, l’IA ne pourra réellement progresser qu’en s’incarnant dans le monde réel, par l’intermédiaire de capteurs, de matériaux intelligents et de formes robotiques. L’AGI ne sera pas atteinte par le calcul seul, mais par l’expérience physique.

L’embodiment comme condition de l’intelligence

Amy Webb le rappelle : “In our human world, situations are dynamic and unpredictable.” L’IA ne comprend pas le contexte. Elle ne perçoit ni le mouvement, ni les émotions, ni les signaux faibles du monde physique.

Cette limite structurelle explique pourquoi les systèmes actuels restent fondamentalement dépendants de l’humain. Pour sortir de cette impasse, la solution passe par ce que Webb appelle “embodied AI” — une intelligence artificielle incarnée dans des corps, connectée à des capteurs, capable d’agir sur l’environnement.

Multi-agent systems, langage mathématique et capteurs

Parmi les tendances analysées dans le rapport annuel du FTSG, Amy Webb met en avant les multi-agent systems (MAS) : des intelligences artificielles qui travaillent en équipe, sans supervision humaine, et qui peuvent apprendre à optimiser ou contourner des objectifs.

“They can build on each other’s work. They can deliberate over a problem to find a solution that on their own they wouldn’t have been able to do. And they are designed to work without a human in the loop.”

Pour fluidifier leur communication, Microsoft a inventé DroidSpeak, un langage mathématique permettant aux IA de dialoguer sans passer par le langage humain, jugé “clumsy, imprecise, and sometimes inaccurate”.

Ce passage au langage mathématique permet aux agents de communiquer “almost three times as fast”, ce qui les rend environ 100 fois plus rapides que les humains, selon Webb.

Du corgi connecté aux tentacules neuronaux

L’incarnation de l’IA passe aussi par une ingestion massive de données sensorielles en temps réel. Webb décrit un cas expérimental avec un corgi, injecté d’un microscopic Fitbit. Le capteur suit le rythme cardiaque, la respiration et l’activité physique, et transmet ces données à un système multi-agents. Résultat : l’environnement du chien s’adapte automatiquement à son état de santé (via la TV, par exemple).

Autre exemple : des sperm bots — des spermatozoïdes équipés de micro-coils magnétiques — sont pilotés à distance pour améliorer la fécondation. Et plus loin encore, des wearables neuronaux injectables conçus par le MIT permettent de stimuler des zones précises du cerveau pour traiter des troubles neurologiques comme Parkinson, sans toucher aux tissus sains.

“You inject thousands of these tiny devices into the body […] and then you take something like a flashlight and you shine it outside the body, and the wearables, they roll up to an exact shape.”

Reprogrammation du vivant et neurones calculants

L’IA ne se limite plus à simuler l’intelligence. Elle commence à s’ancrer dans le vivant lui-même.

  • DeepMind a publié AlphaFold 3, capable de prédire la structure de toutes les molécules biologiques connues, ouvrant une ère de biologie générative accessible à tous.
  • Des chercheurs cultivent des dents humaines dans des porcs, ou conçoivent du riz enrichi de gènes bovins.
  • Plus radical encore : des bio-ordinateurs utilisant des neurones humains vivants ont été commercialisés en mars 2025, équipés d’un Biological Intelligence Operating System (BIOS).

“These are programmable, organic neural networks born on a silicon chip living inside of a digital world.”

Robots, matières intelligentes et mycéliums

L’intelligence incarnée ne se limite pas aux humanoïdes. Webb évoque un robot champignon, conçu à Cornell, où le mycélium agit comme un cerveau réagissant à la lumière. Elle présente aussi un robot méduse biohybride utilisé pour explorer les fonds marins à des fins climatiques.

Mais c’est un simple geste qui résume le saut technologique en cours : lacer une chaussure.

“Tying your shoes […] requires tactile feedback and precision grip. […] Just a few weeks ago, Google DeepMind figured out how to train a robot to tie a shoe. It’s a huge breakthrough.”

Pour Amy Webb, ce geste banal marque une inflexion majeure : les IA deviennent capables de manipuler leur environnement, de manière fine, contextuelle et autonome.

Vers une stratégie incarnée

Ce bouleversement impose une nouvelle approche stratégique.
Les entreprises doivent sortir d’une vision “copilote” de l’IA et penser en termes d’écosystèmes incarnés, mêlant capteurs, algorithmes, matériaux, et même cellules vivantes.

Car comme le résume Amy Webb :

“Artificial general intelligence doesn’t exist without embodiment, much in the same way that our human intelligence doesn’t really exist outside of a body.”

Il faut penser en systèmes, pas en modèles

Une IA sans corps est une IA incomplète. Elle peut produire du texte, mais pas prendre des décisions contextualisées. Elle peut simuler l’intelligence, mais ne pas la vivre.

L’avenir de l’IA passe par son ancrage physique, sa capacité à percevoir et à agir, sa connexion au vivant. Cette transition — de l’algorithme à l’incarnation — n’est pas accessoire. Elle est structurelle.

Et comme le rappelle Amy Webb, ce qui se joue aujourd’hui conditionne les prochaines décennies :

“The decisions that get made in the next decade are going to determine the long-range fate of human civilization.”

 

 

Suivez nous:
Bouton retour en haut de la page