Intelligence artificielle: la stratégie des grands groupes de l’Internet
Dans l’épisode précédent de cette série sur les avancées de l’intelligence artificielle publiée par intermittence, je m’étais penché sur un inventaire partiel de start-up du secteur. Il en manquait quelques-unes, acquises par de grandes entreprises et notamment par les GAFA et autres IBM, Microsoft, Oracle, LinkedIn et Salesforce.
C’est le lot commun de vagues d’innovations que de générer ce genre d’acquisitions. On en déduit que les grandes entreprises ont le souci de s’adapter rapidement aux évolutions du marché et de ne pas rater un train qui part ou qui est déjà en marche. L’IA n’y échappe donc pas. Cela a commencé il y a pas mal d’années avec des acquisitions portant d’abord sur la recherche, le traitement de l’image et la reconnaissance de la parole. Les acquisitions les plus récentes portent plutôt sur le machine learning adapté au big data.
Voici donc un tour d’horizon de ces principales acquisitions et, au passage, des stratégies d’IA associées pour ces grands groupes du numérique.
Google sort les gros bras
Depuis 2014, l’actualité abonde d’acquisitions médiatisées de start-up de l’IA par ces grands acteurs du numérique. Cela alimente quelques fantasmes sur leurs avancées qui sont quelque peu enjolivées. Elles sont notamment focalisées sur Google qui aurait, selon les commentateurs, acquis tout ce qui existait de bien autour de l’IA.
C’est évidemment une vue de l’esprit. Oui, Google a fait bien plus d’acquisitions dans le domaine de l’IA que les autres grands du numérique, mais rappelons-nous le côté très artisanal de ce secteur. Ce n’est pas parce que vous achetez quelques verreries de luxe que vous êtes le seul à savoir fabriquer des verres de luxe ! L’artisanat est souvent un marché très fragmenté. On peut le constater au regard des effectifs des start-up acquises. Ils sont en général très limités, comme ils l’étaient d’ailleurs pour les acquisitions par Facebook de start-up telles qu’Instagram, WhatsApp ou Oculus Rift, qui n’avaient par ailleurs aucun rapport avec l’IA.
L’acquisition la plus médiatisée de Google dans l’IA fut celle de l’Anglais DeepMind en 2014 pour un montant record dans ce secteur, à hauteur de 625 million de dollars. Et surtout, pour à peine une cinquantaine de personnes, dont une douzaine de chercheurs en machine learning. Ce qui fait le chercheur à 50 millions de dollars, un record comparé aux développeurs qui sont estimés à environ un ou deux millions de dollars pour des acquisitions de jeunes start-up. Ce qui est rare et cher. En 2014, une estimation portait à une cinquantaine le nombre de chercheurs en machine learning dans le monde. A vrai dire, il y en avait certainement beaucoup plus. On ne compte pas les PhD qui font ou ont fait de la recherche en machine learning. Mais les «bons» sont probablement peu nombreux comme dans toutes les disciplines de la recherche.
Google n’en était pas à son premier coup. La firme américaine avait auparavant mis la main sur la société de reconnaissance vocale SayNow en 2011, qui se retrouve probablement dans la commande OK Google sur mobiles Android. Puis sur Viewdle et de PittPatt en 2012, qui faisaient tous les deux de la reconnaissance faciale et de mouvements. Ensuite, en 2013, sur le spécialiste des réseaux neuronaux Dnnresearch, avec le canadien Geoff Hinton au passage, père du renouveau des réseaux neuronaux, évoqué dans le second article de cette série. Ont suivi Dark Blue Labs et Vision Factory, deux sociétés d’Oxford qui n’ont pas levé de fonds. S’y ajoutèrent la solution de recommandation d’images JetPack, le spécialiste de la traduction automatique Quest Visual, et celui de la reconnaissance de mouvements Flutter qui a probablement enrichi l’offre logicielle de Dropcam, une startup de caméras de surveillance qui est dans le giron de Nest, une filiale d’Alphabet.
L’année 2014 a vu Google/Alphabet acquérir une palanquée de start-up dans la robotique avec Schaft (robot humanoïde et bras articulé, japonais), Industrial Perception (robots industriels, spécialisé dans la vision 3D), Redwood Robotics (bras robotisés, issue du SRI et acquise un an après sa création), Meka Robotics (aussi dans les bras robotisés, qui avait contribué à la création de Redwood Robotics), Holomni (roues robotisées), Bot & Dolly (bras articulés à mouvements très souples servant aux tournages de cinéma), Autofuss (encore des bras articulés) et surtout Boston Dynamics, connu pour ses robots médiatisés doués de capacité de marche à quatre puis deux pattes mais que Google est en train de céder.
Que deviennent toutes ces acquisitions ? Tout ce qui relève du traitement des images et du langage s’est retrouvé dans les services de Google, notamment mobiles. La robotique ? Elle a débouché sur peu d’applications commerciales pour l’instant car ces technologies sont toujours en phase de gestation ou destinées à des marchés de niche. Et Google ne cherche pas à concurrencer les leaders de robots industriels (ABB, Fanuc, etc.).
Google fait des progrès réguliers dans le traitement des images, comme avec PlaNet qui identifie à quel endroit ont été prises des photos d’extérieur ou pour compter les calories dans des photos de plats. Google utilise aussi beaucoup d’IA sensorielle pour faire évoluer les fonctions de conduite automatique de ses Google Car.
L’IA «googlelienne» a connu un sursaut de médiatisation avec la victoire de la solution AlphaGo construite par une équipe d’une vingtaine de personnes de sa filiale DeepMind au jeu de Go contre le champion du monde Sud-Coréen (vidéo de la première partie). AlphaGo avait déjà battu le champion européen, Fan Jui, en octobre 2015. Ces victoires ont été présentées comme des étapes importantes des progrès de l’IA, faisant écho à la victoire de Deeper Blue aux échecs contre Gary Kasparov en 1997. La différence ? Le jeu de Go est plus difficile à simuler car la combinatoire de jeu est bien plus grande qu’aux échecs. AlphaGo ne peut pas compter que sur la force brute.
Il doit combiner plusieurs méthodes pour être efficace : éliminer des options de jeu inutiles via le «Monte Carlo Tree Search» (représenté graphiquement ci-dessus) ou MCTS et exploiter une base de jeux permettant d’identifier des tactiques gagnantes. A ce jeu-là, cependant, AlphaGo ne gagne pas systématiquement. Mais c’est une bonne pub pour DeepMind dont les solutions de machine learning ont d’autres applications comme la curation de médias ou la santé. La performance a été documentée dans un article publié dans la revue Nature en janvier 2016. Un peu vexés, les Coréens ont d’emblée lancé un plan de financement public de 765 millions d'euros dans l’IA sur cinq ans avec les géants comme Samsung, LG, Hyundai et SK Telecom.
Aujourd’hui, DeepMind est encore un laboratoire de recherche. Ils planchent sur DQN, un réseau neuronal profond doté de capacités d’auto-apprentissage et DeepMind Health, qui donne lieu à une collaboration avec la NHS britannique et dans l’application Streams de détection de blessures aux reins dans les urgences.
Le Français Yann LeCun, maintenant chez Facebook, a trouvé de son côté que le progrès accompli par AlphaGo n’est pas révolutionnaire pour autant, surtout en termes d’intelligence, un mot valise dont la définition est à géométrie variable. Il met en évidence le rôle de l’architecture matérielle qui est mise en œuvre (280 GPUs et 1920 CPUs, même si ce n’est pas forcément celle qui l’était dans les matchs historiques).
Contrairement aux nombreuses start-up évoquées dans l’article précédent, Google utilise l’IA pour enrichir ses propres offres grand public, que ce soit autour de son moteur de recherche multifonctions ou de business plus périphériques d’Alphabet (santé, IoT, automobile). Il s’approvisionne en technologies et compétences de manière assez classique, pas du tout dans un modèle d’innovation ouverte. L’enjeu est de transformer ces avancées en plateformes, comme il commence déjà à le faire en publiant des APIs d’IA dans le cloud pour les développeurs.
Comme ce fut le cas dans le Web 2.0, la position des acteurs est à la fois technologique mais aussi liée à la capacité à satisfaire des besoins importants d’utilisateurs, à créer des écosystèmes applicatifs et à trouver un bon modèle économique. Google n’y est pas toujours arrivé, comme avec Google Reader (abandonné), Picasa (abandonné au profit de Google Photos), Google Wave (transformé), Google+ (mal en point) ou Google Compare(récemment abandonné).
L’IA est en tout cas un domaine suffisamment ouvert pour que l’on ne se contente pas de ne prêter qu’aux riches !
D’ailleurs, petite question : quels travaux de recherche en IA a pu créer et publier Ray Kurweil depuis qu’il est chez Google, à savoir 2012 ? Il planche en théorie sur le traitement du langage naturel. Mais on n’en sait pas plus ! Avant d’être chez Google, Kurzweil était à la fois un serial-inventeur et un serial-entrepreneur en plus d’être auteur de nombreux livres, donc plutôt prolifique. Depuis, c’est un grand silence. Les exponentielles de progrès ne sont pas universelles !
Données, big data et machine learning : le cocktail gagnant d'IBM
IBM est le second acteur auquel les médias font le plus souvent référence concernant l’IA, notamment depuis qu’il communique fort bien sur les performances et applications diverses de Watson, comme nous l’avons vu dans le troisième épisode de cette série.
IBM est aussi coutumier des acquisitions, qui servent surtout à enrichir son offre de logiciels d’entreprises, source de profits de même niveau que ses activités de services pourtant trois fois plus importantes en chiffre d’affaire. L’offre logicielle d’IBM s’est agrandie depuis les années 1990 par le fait de nombreuses acquisitions avec Lotus, Rational, Tivoli pour ne nommer que les plus connues. Et cela a continué depuis.
IBM a investi au moins sept milliards de dollars en acquisitions dans l’IA, bien plus que Google ne l’a fait. Il a notamment absorbé en 2014 la start-up Cognea, créatrice d’un agent conversationnel, AlchemyAPI (2005), une startup de deep learning d’analyse de textes et d’images, de reconnaissance de visages, de tagging automatique d’images acquise en 2015, IRIS Analytics, une startup allemande d’analyse temps-réel dédiée à la détection de fraudes aux moyens de paiement, s’appuyant sur du machine learning, Explorys et la solution de gestion de données patients Phytel, intégrés dans les solutions santé de Watson, acquises en 2016.
Au-delà de l’acquisition de technologies et d’équipes, IBM s’intéresse aux données permettant d’alimenter Watson de manière générique. Cela s’est manifesté avec l’acquisition des activités données de The Weather Channel en 2015 permettant de créer une base météorologique conséquente utile dans différents marchés (tourisme, agriculture, énergie, transports) ainsi que de Truven Health Analytics pour 2,6 milliards de dollars, qui gérait les données – probablement anonymisées – sur le cout et les traitements de 200 millions de patients.
Cette démarche est originale. On ne l’observe pas chez Google ou les autres acteurs évoqués ici. Les données de certains domaines sont en effet plus rares que les algorithmes de machine et deep learning et de réseaux neuronaux qui sont plutôt monnaie courante. Le couplage données + big data + machine learning auto-apprenant permet de créer des bases uniques. D’où leur valeur économique pour IBM. CQFD.
Microsoft multiplie ses recherches dans l'intelligence artificielle
Microsoft a ceci de commun avec IBM qu’il entretient depuis des décennies de grandes équipes de recherche fondamentale et particulièrement investies dans les différents champs de l’intelligence artificielle. Créé en 1991, Microsoft Research occupe plus de 1000 chercheurs répartis dans le monde, et y compris en France, dans un laboratoire commun monté à Orsay avec l’INRIA. La principale équipe européenne est située à Cambridge au Royaume-Uni. Les équipes de Microsoft Research sont à l’origine d’avancées comme le système de dialogue en langage naturel Cortana.
Microsoft Research emploie un nombre record de prix Nobel et de scientifiques ayant gagné la médaille Fields. Cela n’en fait pas pour autant les initiateurs de business significatifs pour Microsoft. Tout au plus sont-ils à l’origine de nombreuses innovations incrémentales qui ont alimenté les produits phares de l’éditeur. Le correcteur orthographique qui souligne les mots dans Word était ainsi sorti de ces laboratoires en 1995. Cela permet de relativiser le rôle de la recherche pour dominer une industrie. Apple qui n’a pas formellement de laboratoire de recherche domine ainsi le secteur du mobile ! Chez Google, la frontière entre recherche et développement est plus floue.
Les activités de Microsoft Research dans le machine learning sont imposantes avec plusieurs dizaines d’équipes projets impliquées. Dans les projets, on trouve les grands classiques qui portent sur l’amélioration de la reconnaissance de la parole et des images et notamment le tagging automatique de vidéos. Et puis, en vrac, un agent conversationnel détectant des troubles psychiatriques (DiPsy), un outil de reconnaissance de chiens originaire de Chine qui fonctionne à l’échelle individuelle, pas à celui de la race (Dog Recognition) et un outil de tri de pièces de monnaie pour les réfractaires aux Blockchains (Numiscan).
Microsoft qui est maintenant résolument tourné vers le cloud fait tout de même quelques acquisitions de start-up pour accélérer son «time to market» dans l’IA ou dans la périphérie de l’IA. Les équipes de recherche fondamentale travaillent en effet sur des domaines où le risque est plus scientifique et technique que le marché tandis que les start-up sont censées œuvrer en fonction des risques du marché. Le risque est même parfois émotionnel et dans l’image, comme l’a montré le robot conversationnel Tay qui s’est mis à tenir des propos nazis et a été débranché. Tay était sorti de Microsoft Research !
Les acquisitions dans les start-up de l’IA sont cependant peu nombreuses chez Microsoft. On peut surtout citer Revolution Analytics, qui faisait de l’analyse prédictive s’appuyant sur le langage open source R, acquise récemment en 2016. Un moyen de s’attirer un écosystème de développeurs ! Et puis, début 2016, Swiftkey, un logiciel de clavier virtuel mobile qui s’appuierait lui aussi sur du machine learning. En 2015, Microsoft avait aussi mis la main sur Prismatic, un agrégateur de news s’appuyant sur du machine learning, ainsi que Double Labs, une application Android de notification elle aussi basée sur du machine learning.
Il n’empêche que l’éditeur a bien compris les enjeux de l’IA et cherche à se positionner comme fournisseur de plateforme d’IA pour les développeurs, le «Conversation As a Platform» et le «Microsoft Bot Framework», qui rappellent dans leur structure l’offre des APIs d’IBM Watson. Il a été annoncé lors de la conférence Build qui s’est tenue à San Francisco entre le 28 mars et le 1er avril 2016 (voir les vidéos de keynotes du premier jour et du second jour).
C’est dans ce cadre que Microsoft propose 22 APIs dans ses Cognitive Services (anciennement Projet Oxford) associés à l’agent Cortana Intelligence Suite. Ce sont des APIs sensorielles qui font de la reconnaissance d’images, audio, du traitement du langage naturel (NLP). L’agent intègre les services en cloud Azure Machine Learning, lancés en 2015. Microsoft a notamment démontré son CRIS (Custom recognition intelligence service), un outil de «speech to text» capable d’interpréter les paroles approximatives d’enfant en bas âge.
Apple marche à l'ombre
Apple est bien plus orienté vers les produits et les marchés que ne le sont IBM et Microsoft. Non seulement la société n’a pas formellement de laboratoire de recherche fondamentale, mais elle ne publie aucun papier dans le domaine de l’IA. C’est tout le contraire de l’innovation ouverte !
Les acquisitions d’Apple sont peu nombreuses en règle général. Dans l’IA, on peut compter Emotient pour la reconnaissance des visages et des émotions, VocalIQ, qui devait enrichir les fonctionnalités de reconnaissance de la parole de Siri en ajoutant de l’auto-apprentissage, ainsi quePerceptio, dans la reconnaissance d’images s’appuyant sur du deep learning. Siri est de son côté le résultat de l’acquisition en 2010 de la start-up Siri, elle-même issue d’un projet de SRI International financé par la DARPA, et de l’usage des technologies issues de l’américain Nuance Communications, la société leader du secteur de la reconnaissance de la parole qui fait plus de deux milliards de dollars de chiffre d’affaires ! Ce dernier utilise en partie des technologies issues de Scansoft, provenant du belge Lernout & Hauspie qui avait acquis la technologie de reconnaissance de la parole de Ray Kurzweil !
Apple comble les trous dans l’IA via son partenariat avec IBM qui porte notamment sur Watson. Il est cependant probable qu’Apple devra faire quelques acquisitions dans le cadre de son projet de voiture automatique.
Facebook s'immisce toujours plus dans la vie de ses utilisateurs
Facebook a fait parler de lui côté IA en lançant le FAIR (Facebook Artifical Intelligence Research) qui est dirigé par le chercheur français Yann LeCun et qui est installé à Paris depuis 2015. Yann LeCun est l’un des pères du machine learning comme nous l’avions évoqué dans le second article de cette série. Il est aussi depuis peu professeur au Collège de France sur le deep learning (voir sa leçon inaugurale).
Les équipes de Facebook planchent sur la reconnaissance automatique de sports dans les vidéos ou de chiens dans les photos. Facebook vient aussi de démontrer une fonction qui décrit le contenu de photos, adaptée aux aveugles, presque simultanément à une fonction du même genre proposée aux aveugles par Microsoft.
Facebook a aussi fait l’acquisition de Wit.ai, une petite start-up de Palo Alto, pour ajouter des fonctionnalités de reconnaissance de la parole dans ses services et notamment de Messenger. Mais Wit.ai est aussi une plateforme utilisée par des milliers de développeurs !
Le géant des réseaux sociaux rêve aussi probablement de créer des solutions de marketing ultra-intelligentes, capables de devenir les aspirations et les intentions des utilisateurs. Par exemple, une solution qui saura que je change de ville tous les ans pour mes vacances et évitera de m’exposer à des publicités liées à des villes déjà visitées !
Autres grands acteurs du numérique
Dans les acquisitions de startups de l’IA par d’autres grands acteurs du numérique, on peut citer quelques mouvements récents, même si on est loin du tsunami. Pourquoi donc ? Est-ce lié aux domaines d’activité de ces entreprises ?
- La start-up Connectifier, spécialisée dans l’identification de profils pour le recrutement, acquise par LinkedIn début 2016. LinkedIn a aussi acquisBright en 2014, un spécialiste du recrutement basé sur de la recommandation et s’appuyant sur du machine learning pour l’analyse sémantique des CV.
- Le moteur de recherche visuel mobile SnapTell a été acquis par Amazon en 2009, la seule acquisition de ce dernier semblant intégrer des solutions ou technologies d’IA. Ce qui peut vouloir dire que la solution en cloud Amazon Machine Learning, lancée en 2015, est d’origine interne. Elle permet de réaliser des recommandations d’achats, comme dans le service d’Amazon.
- Le spécialiste du machine learning PredictionIO acquis par SalesForce également début 2016.
- L’application de recommandation mobile Livestar acquise par Pinterest en 2013.
- La start-up de machine learning et d’analytics Whetlab acquise par Twitter en 2015.
- Le spécialiste de data analytics BigMachines acquis par Oracle en 2013 pour $300m.
A chaque fois, il s’agit visiblement d’applications métiers et pas forcément de start-up qui ont réellement fait avancer l’état de l’art de l’IA. Il sera intéressant d’observer les acquisitions de start-up d’ici fin 2016 pour identifier une éventuelle croissance des catégories IA et machine learning.
Article initialement publié sur le blog Opinions Libres.
Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique) et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.
Crédit photo: Fotolia, banque d'images, vecteurs et videos libres de droits
- Ask A VC : comment modéliser un compte de résultat — Partie 6/6 : analyse de sensitivité - 21/05/2024
- Ask A VC : comment modéliser un compte de résultat — Partie 3/6 : les Coûts Fixes - 16/01/2024
- Question à un VC : Pourquoi les marges unitaires sont-elles si importantes pour votre modèle d’affaires? - 13/11/2023