Le NVIDIA H100 est un GPU haut de gamme spécialement conçu pour l’IA, le Deep Learning et les applications HPC. Il est basé sur l’architecture Hopper et intègre de puissants Tensor Cores de quatrième génération qui offrent des performances exceptionnelles. Grâce à son énorme capacité de calcul, le NVIDIA H100 est idéal pour l’entraînement de réseaux neuronaux complexes, les charges de travail Cloud intensif en données et les simulations HPC sophistiquées.

Quelles sont les caractéristiques du GPU NVIDIA H100 ?

Le NVIDIA H100 offre un niveau de performance exceptionnel, basé sur la nouvelle architecture Hopper. Celle-ci combine la technologie Tensor Core avec le moteur Transformer afin de fournir une capacité de calcul plus importante et d’accélérer considérablement l’entraînement des modèles d’IA. NVIDIA propose le GPU H100 en deux variantes : H100 SXM et H100 NVL.

Les deux versions se distinguent tant par leur facteur de forme que par leurs performances, leur bande passante mémoire et leur connectivité. Le H100 SXM est surtout conçu pour une utilisation dans des serveurs à haute densité et pour des environnements hyperscale. Le H100 NVL, quant à lui, a été conçu pour les slots PCIe, ce qui facilite l’intégration du GPU dans les infrastructures serveur existantes. Le tableau ci-dessous donne un aperçu détaillé des caractéristiques de performance des deux variantes du NVIDIA H100 :

Performances NVIDIA H100 SXM NVIDIA H100 NVL
FP64 34 TFLOPS 30 TFLOPS
Tensor Core FP64 67 TFLOPS 60 TFLOPS
FP32 67 TFLOPS 60 TFLOPS
Tensor Core TF32 989 TFLOPS 835 TFLOPS
Tensor Core BFLOAT16 1 979 TFLOPS 1 671 TFLOPS
Tensor Core FP16 1 979 TFLOPS 1 671 TFLOPS
Tensor Core FP8 3 958 TFLOPS 3 341 TFLOPS
Tensor Core INT8 3 958 TOPS 3 341 TOPS
Mémoire GPU 80 Go 94 Go
Bande passante mémoire GPU 3,35 To/s 3,9 To/s
Décodeur 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG
Puissance maximale d’enveloppe thermique (TDP) 700 W (configurable) 350-400 W (configurable)
GPU multi-instance (MIG) Jusqu’à 7 MIG de 10 Go chacun Jusqu’à 7 MIG de 12 Go chacun
Facteur de forme SXM PCIe à deux slots avec refroidissement par air
Interface NVIDIA NVLink 900 Go/s, PCIe Gen5 : 120 Go/s NVIDIA NVLink : 600 Go/s, PCIe Gen5 : 128 Go/s
Options serveur Partenaires NVIDIA HGX H100 et systèmes certifiés NVIDIA avec 4 ou 8 GPU, NVIDIA DGX H100 avec 8 GPU Partenaires et systèmes certifiés NVIDIA avec 8 GPU maximum
NVIDIA IA Enterprise Add-on Inclus
Note

TFLOPS (Tera Floating Point Operations per Second) est une unité utilisée pour décrire la vitesse de traitement des ordinateurs (virgule flottante). Un TFLOPS correspond à un billion de calculs par seconde (10¹²). Il en va de même pour l’unité TOPS (Tera Operations per Second), à la différence qu’elle désigne des opérations sur des nombres entiers.

Avantages et inconvénients du NVIDIA H100

Le NVIDIA H100 compte parmi les GPU les plus puissants du marché et est doté de nombreuses technologies et fonctionnalités avancées. Les principaux avantages du GPU H100 sont :

  • Très grande puissance de calcul : le H100 offre une performance exceptionnelle en FP8 et FP16 avec ses Tensor Cores, ce qui le rend idéal pour les charges de travail complexes et intensives en données comme les Large Language Models (LLM). L’interaction entre les Tensor Cores de quatrième génération et le moteur Transformer peut améliorer considérablement l’efficacité des opérations d’IA.
  • NVLink et NVSwitch : le NVIDIA H100 supporte le NVLink de quatrième génération, ce qui permet de connecter plusieurs GPU de serveurs entre eux avec une bande passante bidirectionnelle de 900 Go/s. Grâce à NVSwitch, il est également possible de faire évoluer les clusters de manière flexible.
  • **GPU multi-instance (MIG) : le GPU peut être partitionné en maximum sept instances GPU indépendantes, ce qui permet d’exécuter simultanément plusieurs charges de travail avec des ressources dédiées. Ce découpage améliore la flexibilité et l’efficacité dans les environnements informatiques partagés.
  • Confidential Computing : grâce à la fonction de sécurité intégrée, la confidentialité et l’intégrité des données sont protégées tout au long du processus de travail.
  • Mémoire HBM3 et support PCIe Gen5 : avec jusqu’à 94 Go de mémoire HBM3 et une bande passante pouvant atteindre 3,9 To/s, le NVIDIA H100 offre l’une des mémoires les plus performantes pour les charges de travail intensives en données. En combinaison avec PCIe Gen5, il permet un transfert de données très rapide.

Un inconvénient toutefois : la haute performance du NVIDIA H100 se reflète aussi dans son prix. Selon le modèle, les GPU coûtent entre 30 000 et 40 000 €. C’est pourquoi les instances H100 sont comparativement chères, même dans les environnements Cloud. La disponibilité de ce GPU pour serveurs est en outre limitée : en raison de la forte demande, on observe régulièrement des retards de livraison et de longs temps d’attente.

Dans quels domaines le GPU NVIDIA H100 est-il le mieux adapté ?

Le GPU NVIDIA H100 a été spécialement conçu pour les charges de travail à forte intensité de calcul et convient particulièrement aux applications IA et HPC exigeantes. L’aperçu suivant montre les principaux domaines d’utilisation du GPU H100 :

  • Entraînement de grands modèles d’IA : grâce à sa puissance de calcul importante, le GPU accélère considérablement l’entraînement de réseaux neuronaux complexes et de grands modèles linguistiques tels que GPT ou LLaMA.
  • Inférence IA en temps réel : le H100 peut exécuter des modèles d’IA déjà entraînés à des vitesses de pointe, ce qui est un avantage dans des domaines comme le traitement du langage et la reconnaissance d’images.
  • Cloud et data centers : le H100 constitue la base de nombreux serveurs GPU en fournissant la capacité de traitement nécessaire aux charges de travail complexes.
  • High Performance Computing (HPC) : les calculs et les simulations scientifiques bénéficient de la haute performance en FP64 des GPU H100.
  • IA générative : le NVIDIA H100 est parfaitement adapté à la génération automatisée de texte, d’images et de vidéos avec des modèles d’IA. Le GPU permet de traiter rapidement et efficacement les grands ensembles de données nécessaires à l’IA générative.
  • Analyse des données : le H100, basé sur l’architecture Hopper, aide les entreprises de différents secteurs, comme la logistique et la finance, à faire des prévisions et des prédictions précises à partir de grandes quantités de données.
Serveurs GPU
Hardware dédié avec une puissante carte graphique

Utilisez la puissance de calcul GPU en toute flexibilité pour gérer de grandes quantités de données et payez uniquement les ressources utilisées.

Quelles sont les alternatives possibles au GPU H100 ?

Bien que le NVIDIA H100 soit l’un des GPU les plus puissants pour l’IA et le HPC, d’autres solutions peuvent être envisagées selon l’usage prévu et les contraintes budgétaires, par exemple pour une meilleure rentabilité. Parmi les alternatives possibles, on peut citer :

  • NVIDIA A100 : le modèle précédent offre également de solides performances pour l’apprentissage de l’IA, l’inférence et le HPC, tout en étant plus économique.
  • NVIDIA A30 : l’A30 combine des performances élevées avec un prix abordable.
  • NVIDIA H200 : le H200 représente une version légèrement améliorée du GPU NVIDIA H100, qui dispose par exemple d’une bande passante mémoire encore plus élevée.
  • Intel Gaudi 3 : cet accélérateur IA fournit des performances élevées pour l’inférence IA.
Note

Découvrez plus en détail les processeurs graphiques les plus utilisés actuellement dans notre guide comparatif des GPU pour serveurs.

Cet article vous a-t-il été utile ?
Aller au menu principal