jeudi, mai 9

Nvidia Blackwell B200: La Puce la Plus Rapide au Monde – 4X plus Puissante que le H100, atteignant 1 ExaFlop par Rack

La technologie révolutionnaire de NVIDIA, Blackwell, a enfin été dévoilée. Cette plateforme permettra d’exécuter en temps réel des modèles de langage de grande échelle jusqu’à un trillion de paramètres, avec une incroyable efficacité énergétique et un coût réduit jusqu’à 25 fois par rapport au H100.

L’architecture GPU Blackwell est dotée de six nouvelles technologies permettant d’accélérer le calcul et de réaliser des avancées majeures dans le traitement de données, la simulation d’ingénierie, l’automatisation de la conception électronique et de nombreuses autres applications émergentes liées à l’IA. Et ce n’est pas tout ! Des géants technologiques tels qu’Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla et xAI ont déjà prévu d’utiliser Blackwell.

La plateforme utilise une méthode de génération de jetons de contenu, consistant à créer du contenu de manière totalement innovante. Les six technologies révolutionnaires de Blackwell lui permettent de supporter l’apprentissage et l’inférence en temps réel sur des modèles allant jusqu’à 10 billions de paramètres :

  • La puce la plus puissante au monde : Avec 208 milliards de transistors, les GPU de la plateforme Blackwell sont conçus à partir d’un processus TSMC 4NP personnalisé, expliquant leur incroyable puissance. Les GPU disposent également d’une interconnexion puce à puce ultra-rapide de 10 To par seconde, ce qui les rend uniques en leur genre.
  • Le moteur Transformer de deuxième génération : Avec une prise en charge de la mise à l’échelle des micro-tenseurs et des algorithmes de gestion de la plage dynamique, Blackwell peut désormais encaisser deux fois plus de calculs et de modèles. De plus, la nouvelle prise en charge de l’inférence IA en virgule flottante de 4 bits la rend encore plus performante.
  • NVLink de cinquième génération : Pour accélérer les modèles d’IA à plusieurs trillions de paramètres, NVLink offre un débit bidirectionnel révolutionnaire de 1,8 To/s par GPU. Ce qui assure une communication fluide entre 576 GPU pour des tâches de traitement de données très complexes.
  • Moteur RAS : Les GPU Blackwell ont été conçus pour garantir une fiabilité et une disponibilité maximales. De plus, l’architecture Blackwell dispose d’un système de maintenance préventive basé sur l’IA pour détecter et prévoir les problèmes, assurant ainsi un fonctionnement sans interruption pendant des semaines, voire des mois. Cela permet également de réduire considérablement les coûts d’exploitation.
  • IA sécurisée : La plateforme dispose de capacités avancées de calcul confidentiel pour protéger les données de ses utilisateurs. Elle est également équipée de nouveaux protocoles de cryptage d’interface pour les industries sensibles à la confidentialité, comme la santé et les services financiers.
  • Moteur de décompression : Un moteur de décompression dédié prend en charge les derniers formats de données, permettant ainsi une analyse et une science des données plus rapides et efficaces.

Passons maintenant à la star de la plateforme, le GB200, une super-puce massive connectant deux GPU NVIDIA B200 Tensor Core au CPU NVIDIA Grace via une interconnexion NVLink. Pour atteindre des performances optimales en matière d’IA, ces puces peuvent être connectées aux réseaux NVIDIA Quantum-X800 InfiniBand et Spectrum-X800 Ethernet, également annoncés aujourd’hui, permettant ainsi des vitesses de réseau allant jusqu’à 800Gb/s. Le GB200 est un composant crucial du NVIDIA GB200 NVL72, un système rack composé de 36 puces Grace Blackwell Superchips, soit 72 GPU Blackwell et 36 CPU Grace interconnectés par NVLink de cinquième génération. Ce système multiplie par 30 les performances et jusqu’à 25 fois moins de consommation d’énergie par rapport à des systèmes similaires utilisant le H100 Tensor Core. La plate-forme agit comme un GPU unique avec 1,4 exaflops de performance IA et 30 To de mémoire rapide, et constitue un élément de base pour le tout nouveau DGX SuperPOD.

Enfin, NVIDIA propose également la HGX B200, une carte serveur connectant huit GPU B200 via NVLink pour prendre en charge les plates-formes d’IA générative basées sur x86. Avec une vitesse de réseau allant jusqu’à 400 Gb/s grâce aux plates-formes de réseau NVIDIA Quantum-2 InfiniBand et Spectrum-X Ethernet, la HGX B200 offre des performances exceptionnelles.

En résumé, avec ses fonctionnalités exceptionnelles et ses performances époustouflantes, la plateforme NVIDIA Blackwell est la solution parfaite pour toutes les entreprises et industries cherchant à utiliser l’IA générative en temps réel.