L’annonce est stratégique et lourde de conséquences. Nvidia dévoile Vera et Rubin, une nouvelle génération de processeurs pensée pour l’IA générative et les centres de données à très grande échelle. Plus rapides, plus sobres et surtout disponibles plus tôt que prévu, ces puces creusent un peu plus l’écart avec la concurrence.
Selon Nvidia, cette génération marque un tournant : l’IA n’est plus un accélérateur isolé, mais une infrastructure complète, optimisée du processeur au réseau. Une logique industrielle qui change profondément le rythme du marché.
À retenir :
- Vera et Rubin inaugurent un cycle annuel d’innovation chez Nvidia
- Les performances et l’efficacité énergétique progressent fortement
- La plateforme NVL72 vise directement les hyperscalers
- L’écart technologique avec AMD et Intel se creuse
Vera et Rubin, le nouveau duo au cœur de l’IA
Vera est un CPU Arm taillé pour les data centers, avec 88 cœurs Olympus et un débit mémoire dépassant 1 To/s. Dans les charges IA et HPC, Nvidia annonce un doublement des performances face au CPU Grace.
Rubin, de son côté, incarne la nouvelle vitrine GPU du groupe. Gravé en 3 nm, il embarque jusqu’à 288 Go de HBM4 et atteint une bande passante agrégée d’environ 22 To/s, soit près de trois fois celle de Blackwell. Selon Nvidia, ces gains se traduisent directement par une baisse du coût par jeton en IA générative.
Selon Le Figaro, l’enjeu n’est pas seulement la puissance brute, mais la capacité à livrer plus vite des architectures matures et industrialisables.
La plateforme NVL72, l’IA à l’échelle du rack
Avec Vera Rubin NVL72, Nvidia ne vend plus une puce, mais un système clé en main. Chaque rack intègre 72 GPU Rubin et 36 CPU Vera, reliés par NVLink 6, ConnectX-9 et BlueField-4.
J’ai déjà observé cette stratégie avec les systèmes DGX : elle rassure les grands comptes et simplifie les déploiements massifs. Ici, Nvidia va plus loin en promettant des temps d’entraînement raccourcis et une meilleure efficacité énergétique à l’échelle du data center entier.
Selon ZDNet, l’objectif affiché est clair : diviser drastiquement les coûts d’exploitation des grands modèles de langage.
Une avance technologique qui devient structurelle
Le vrai choc vient du rythme. Vera et Rubin arrivent moins d’un an après Grace et Blackwell. Ce cycle annuel rend les générations précédentes rapidement secondaires et complique la riposte d’AMD ou d’Intel, dont les feuilles de route sont plus lentes.
Selon Zonebourse, Nvidia contrôle désormais presque toute la chaîne : CPU, GPU, réseau, DPU et logiciel. Cette intégration verticale explique une part de marché proche de 80 % dans les puces IA pour data centers, malgré les puces maison de Google, Amazon ou Microsoft.
« Nvidia n’accélère pas seulement l’IA, il accélère le marché lui-même. »
Calendrier, production et impact sur le marché
La production de Vera et Rubin a déjà démarré. Les premières livraisons sont attendues au second semestre 2026, en priorité chez les hyperscalers. Nvidia vise des gains de x5 à x8 en performances ou efficacité énergétique selon les scénarios.
Voici un aperçu comparatif des générations :
| Génération | CPU | GPU | Bande passante mémoire | Positionnement |
|---|---|---|---|---|
| Grace / Blackwell | Grace | Blackwell | ~8 To/s | IA et HPC |
| Vera / Rubin | Vera | Rubin | ~22 To/s | IA générative massive |
J’ai vu ce type de rupture lors du passage Pascal → Volta. À l’époque, l’écosystème avait mis plusieurs années à suivre. Cette fois, Nvidia semble vouloir imposer le tempo dès maintenant.
Une domination appelée à durer ?
Rien n’indique un ralentissement. Les investissements IA continuent d’exploser et les acteurs du cloud privilégient des solutions éprouvées. Tant que Nvidia maintient ce rythme et cette maîtrise de la pile technologique, son avance pourrait s’étendre sur la prochaine vague d’investissements IA.
Selon Nvidia, l’ère des puces isolées est révolue. Place aux usines d’IA, pensées comme des infrastructures industrielles.
Et vous, cette accélération vous semble-t-elle soutenable pour l’écosystème ? Le débat est ouvert en commentaire.