ACTUALITETECH

Nvidia GTC Keynote : Blackwell Ultra, la nouvelle référence pour l’IA?

Lors de la conférence GTC 2025, Nvidia a dévoilé Blackwell Ultra, une évolution majeure de son architecture dédiée à l’intelligence artificielle. Ce lancement marque un tournant stratégique, qui entraine l’IA vers une nouvelle dimension : l’agentic AI et l’IA de raisonnement, capables d’analyser, structurer et exécuter des tâches complexes de manière autonome. Avec une puissance de calcul inédite, une intégration  dans les services cloud et une réduction des coûts opérationnels, Blackwell Ultra redéfinit le modèle des infrastructures IA et ouvre la voie à des applications industrielles avancées.

Une IA qui passe de l’exécution au raisonnement

Jusqu’ici, les modèles d’intelligence artificielle étaient conçus pour exécuter des tâches spécifiques : traitement du langage naturel, génération d’images, analyse de données massives. Avec Blackwell Ultra, Nvidia introduit une IA capable de raisonnement avancé, c’est-à-dire une capacité à comprendre des problèmes complexes, décomposer les étapes de résolution et prendre des décisions en toute autonomie.

NOUVEAU 👉 Suivez l’essentiel de la tech sans le blabla. Des insights, des exclus, et ce qui compte vraiment. Abonnez-vous à notre channel WhatsApp et gardez une longueur d’avance !

L’enjeu est considérable. Ce type de technologie permet de transformer des secteurs entiers :

  • Finance : analyse prédictive des marchés, gestion autonome des portefeuilles d’investissement.
  • Santé : diagnostics basés sur l’IA, personnalisation des traitements, simulations médicales.
  • Industrie et logistique : optimisation des chaînes d’approvisionnement, automatisation de la production.
  • Cybersécurité : détection des menaces en temps réel et réponse proactive aux attaques.

Une infrastructure pensée pour le passage à l’échelle

Blackwell Ultra est une refonte complète de l’architecture IA, optimisée pour exécuter des modèles toujours plus exigeants tout en réduisant le coût total de possession (TCO).

Deux innovations majeures soutiennent cette avancée :

  • Le système GB300 NVL72 : il regroupe 72 GPU Blackwell Ultra et 36 CPU Grace, offrant une puissance de 50 petaflops en inférence, soit plus du double des performances des architectures actuelles.
  • L’infrastructure réseau Spectrum-X 800G : elle réduit la latence et élimine les goulets d’étranglement, permettant aux modèles IA de fonctionner avec une fluidité inégalée.

Avec cette architecture, les entreprises peuvent déployer des modèles IA de grande échelle, plus performants et plus rentables, sans exploser leurs coûts d’infrastructure.

Un déploiement massif via le cloud

Blackwell Ultra ne sera pas réservé aux géants technologiques. Nvidia s’associe avec Amazon Web Services, Microsoft Azure, Google Cloud et Oracle Cloud pour intégrer cette nouvelle plateforme dans leurs offres. Concrètement, cela signifie que tout un chacun pourra exploiter la puissance de Blackwell Ultra sans acheter d’infrastructure matérielle, via une facturation à l’usage.

Cette accessibilité marque une étape clé dans l’adoption massive de l’IA avancée par les entreprises. Les capacités de calcul autrefois réservées aux laboratoires de recherche et aux géants technologiques deviennent accessibles à un plus large écosystème.

L’optimisation des coûts et des performances avec Nvidia Dynamo

Autres défis majeurs des entreprises exploitant l’IA sont le coût du calcul et la gestion des ressources informatiques. Pour y répondre, Nvidia a lancé Dynamo, un framework open-source dédié à l’optimisation de l’inférence IA.

Son rôle ?

  • Accélérer le traitement des modèles IA et réduire les temps de réponse.
  • Dissocier les phases de traitement et de génération des modèles pour allouer les ressources de manière plus efficace.
  • Réduire la consommation énergétique et les coûts d’exploitation des infrastructures IA.

Une feuille de route ambitieuse jusqu’en 2028

Blackwell Ultra n’est qu’une première étape. Dès 2026, Nvidia lancera Vera Rubin, une plateforme intégrant un CPU personnalisé conçu en interne et un GPU Rubin, capable de gérer 50 petaflops en inférence. En 2027, Rubin Ultra étendra ces capacités en intégrant quatre GPU en une seule unité, atteignant 100 petaflops.

À plus long terme, Nvidia prévoit l’architecture Feynman en 2028, dont les détails restent encore confidentiels, mais qui a été présenté comme un bond technologique dans la gestion des modèles IA de nouvelle génération.

 

Suivez nous:
Découvrez WE-INNOVATE.EU, la plateforme d'intelligence économique consacrée à l'innovation en europe. Retrouvez les informations de plus de 6000 startups et 700 fonds d'investissements Pour en savoir plus, cliquez ici
Bouton retour en haut de la page
Share This