NVIDIA présente le GPU Blackwell de nouvelle génération, doté de 208 tonnes de transistors et d’une mémoire HBM3e de 192 Mo

Sommaire

NVIDIA présente le GPU Blackwell de nouvelle génération, doté de 208 tonnes de transistors et d’une mémoire HBM3e de 192 Mo
  • Les nouvelles technologies Blackwell GPU, NVLink et Resilience permettent de créer des modèles d’IA à l’échelle du trillion de paramètres.
  • Les nouveaux cœurs Tensor et le compilateur LLM TensorRT réduisent jusqu’à 25 fois les coûts d’exploitation et l’énergie de l’inférence LLM.
  • Les nouveaux accélérateurs permettent des percées dans le traitement des données, la simulation d’ingénierie, l’automatisation de la conception électronique, la conception de médicaments assistée par ordinateur et l’informatique quantique.
  • Adoption généralisée par tous les grands fournisseurs d’informatique en nuage, les fabricants de serveurs et les principales entreprises spécialisées dans l’IA

SAN JOSE, Californie, 18 mars 2024 (GLOBE NEWSWIRE) – Faisant entrer l’informatique dans une nouvelle ère, NVIDIA annonce aujourd’hui l’arrivée de la plate-forme NVIDIA Blackwell, qui permet aux entreprises du monde entier de construire et d’exécuter une IA générative en temps réel sur des modèles en langage étendu de plusieurs trillions de paramètres, pour un coût et une consommation d’énergie jusqu’à 25 fois inférieurs à ceux de son prédécesseur.

L’architecture GPU Blackwell comporte six technologies transformatrices pour l’accélération du calcul, qui aideront à réaliser des percées dans le traitement des données, la simulation d’ingénierie, l’automatisation de la conception électronique, la conception de médicaments assistée par ordinateur, l’informatique quantique et l’IA générative – autant d’opportunités industrielles émergentes pour NVIDIA.

nvidia blackwell

« Pendant trois décennies, nous avons cherché à accélérer l’informatique, dans le but de permettre des percées transformatrices comme l’apprentissage profond et l’IA « , a déclaré Jensen Huang, fondateur et CEO de NVIDIA.

« L’IA générative est la technologie déterminante de notre époque. Blackwell est le moteur de cette nouvelle révolution industrielle. En travaillant avec les entreprises les plus dynamiques du monde, nous réaliserons la promesse de l’IA pour chaque industrie. »

blackwell puce

Nommée en l’honneur de David Harold Blackwell – mathématicien spécialisé dans la théorie des jeux et les statistiques, et premier chercheur noir intronisé à la National Academy of Sciences – la nouvelle architecture succède à l’architecture NVIDIA Hopper™, lancée il y a deux ans.

blackwell gpu

 

Les innovations de Blackwell au service du calcul accéléré et de l’IA générative


Les six technologies révolutionnaires de Blackwell, qui ensemble permettent l’entraînement à l’IA et l’inférence LLM en temps réel pour des modèles allant jusqu’à 10 billions de paramètres, sont les suivantes :

La puce la plus puissante au monde – Avec 208 milliards de transistors, les GPU de l’architecture Blackwell sont fabriqués à l’aide d’un processus TSMC 4NP personnalisé avec des matrices de GPU à limite de deux particules connectées par un lien puce à puce de 10 To/seconde pour former un GPU unique et unifié.
Transformer Engine de deuxième génération – Alimenté par une nouvelle prise en charge de la mise à l’échelle des micro-tenseurs et des algorithmes avancés de gestion de la plage dynamique de NVIDIA intégrés dans les frameworks NVIDIA TensorRT™-LLM et NeMo Megatron, Blackwell prendra en charge le double des tailles de calcul et de modèle avec de nouvelles capacités d’inférence IA en virgule flottante de 4 bits.
NVLink de cinquième génération – Pour accélérer les performances des modèles d’IA à plusieurs trillions de paramètres et de mélanges d’experts, la dernière itération de NVIDIA NVLink® offre un débit bidirectionnel révolutionnaire de 1,8 To/s par GPU, assurant une communication transparente à grande vitesse entre 576 GPU pour les LLM les plus complexes.
Moteur RAS – Les GPU alimentés par Blackwell comprennent un moteur dédié à la fiabilité, à la disponibilité et à la facilité d’entretien. En outre, l’architecture Blackwell ajoute des capacités au niveau de la puce pour utiliser la maintenance préventive basée sur l’IA afin d’exécuter des diagnostics et de prévoir les problèmes de fiabilité. Cela permet d’optimiser le temps de fonctionnement du système et d’améliorer la résilience pour les déploiements d’IA à grande échelle.
IA sécurisée – Des capacités avancées de calcul confidentiel protègent les modèles d’IA et les données des clients sans compromettre les performances, avec la prise en charge de nouveaux protocoles de chiffrement d’interface natifs, qui sont essentiels pour les secteurs sensibles à la confidentialité tels que la santé et les services financiers.
Moteur de décompression – Un moteur de décompression dédié prend en charge les formats les plus récents, accélérant les requêtes de base de données pour offrir les meilleures performances en matière d’analyse et de science des données. Dans les années à venir, le traitement des données, pour lequel les entreprises dépensent des dizaines de milliards de dollars par an, sera de plus en plus accéléré par les GPU.


Une super-puce massive


La super-puce NVIDIA GB200 Grace Blackwell connecte deux GPU NVIDIA B200 Tensor Core au CPU NVIDIA Grace via une interconnexion puce à puce NVLink à 900 Go/s et à très faible consommation.

Pour obtenir les meilleures performances en matière d’IA, les systèmes équipés du GB200 peuvent être connectés aux plateformes NVIDIA Quantum-X800 InfiniBand et Spectrum™-X800 Ethernet, également annoncées aujourd’hui, qui fournissent une mise en réseau avancée à des vitesses allant jusqu’à 800Gb/s.

Le GB200 est un composant clé du NVIDIA GB200 NVL72, un système rack à plusieurs nœuds, refroidi par liquide, pour les charges de travail les plus intensives en calcul. Il associe 36 Grace Blackwell Superchips, qui comprennent 72 GPU Blackwell et 36 CPU Grace interconnectés par NVLink de cinquième génération. De plus, le GB200 NVL72 comprend des unités de traitement de données NVIDIA BlueField®-3 pour permettre l’accélération du réseau cloud, le stockage composable, la sécurité zéro confiance et l’élasticité du calcul GPU dans les environnements hyperspatiaux.

Le GB200 NVL72 multiplie par 30 les performances par rapport au même nombre de GPU NVIDIA H100 Tensor Core pour les charges de travail d’inférence LLM, et réduit les coûts et la consommation d’énergie par 25.

La plate-forme agit comme un GPU unique avec 1,4 exaflops de performance IA et 30 To de mémoire rapide, et constitue un élément de base pour le tout nouveau DGX SuperPOD.

NVIDIA propose la HGX B200, une carte serveur qui relie huit GPU B200 via NVLink pour prendre en charge les plates-formes d’IA générative basées sur x86. La HGX B200 prend en charge des vitesses de réseau allant jusqu’à 400 Gb/s grâce aux plates-formes de réseau NVIDIA Quantum-2 InfiniBand et Spectrum-X Ethernet.

 

Réseau mondial de partenaires Blackwell

 

Les produits basés sur Blackwell seront disponibles auprès des partenaires dès la fin de l’année.

AWS, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure seront parmi les premiers fournisseurs de services cloud à proposer des instances alimentées par Blackwell, tout comme les sociétés du programme de partenariat cloud de NVIDIA, Applied Digital, CoreWeave, Crusoe, IBM Cloud et Lambda. Les clouds souverains de l’IA fourniront également des services et des infrastructures cloud basés sur Blackwell, notamment Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud, Oracle EU Sovereign Cloud, Oracle US, UK et Australian Government Clouds, Scaleway, Singtel, Northern Data Group’s Taiga Cloud, Yotta Data Services’ Shakti Cloud et YTL Power International.

GB200 sera également disponible sur NVIDIA DGX™ Cloud, une plateforme d’IA conçue conjointement avec les principaux fournisseurs de services cloud qui donne aux développeurs d’entreprise un accès dédié à l’infrastructure et aux logiciels nécessaires pour construire et déployer des modèles d’IA génératifs avancés. AWS, Google Cloud et Oracle Cloud Infrastructure prévoient d’héberger de nouvelles instances basées sur NVIDIA Grace Blackwell dans le courant de l’année.

Cisco, Dell, Hewlett Packard Enterprise, Lenovo et Supermicro devraient fournir une large gamme de serveurs basés sur les produits Blackwell, tout comme Aivres, ASRock Rack, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn et ZT Systems.

En outre, un réseau croissant de fabricants de logiciels, dont Ansys, Cadence et Synopsys – leaders mondiaux de la simulation d’ingénierie – utiliseront les processeurs Blackwell pour accélérer leurs logiciels de conception et de simulation de systèmes électriques, mécaniques et électroniques.

Leurs clients peuvent utiliser l’IA générative et l’informatique accélérée pour commercialiser des produits plus rapidement, à moindre coût et avec une meilleure efficacité énergétique.