Le NVIDIA H100 est un GPU haut de gamme spé­cia­le­ment conçu pour l’IA, le Deep Learning et les ap­pli­ca­tions HPC. Il est basé sur l’ar­chi­tec­ture Hopper et intègre de puissants Tensor Cores de quatrième gé­né­ra­tion qui offrent des per­for­mances ex­cep­tion­nelles. Grâce à son énorme capacité de calcul, le NVIDIA H100 est idéal pour l’en­traî­ne­ment de réseaux neuronaux complexes, les charges de travail Cloud intensif en données et les si­mu­la­tions HPC so­phis­ti­quées.

Quelles sont les ca­rac­té­ris­tiques du GPU NVIDIA H100 ?

Le NVIDIA H100 offre un niveau de per­for­mance ex­cep­tion­nel, basé sur la nouvelle ar­chi­tec­ture Hopper. Celle-ci combine la tech­no­lo­gie Tensor Core avec le moteur Trans­for­mer afin de fournir une capacité de calcul plus im­por­tante et d’accélérer con­si­dé­ra­ble­ment l’en­traî­ne­ment des modèles d’IA. NVIDIA propose le GPU H100 en deux variantes : H100 SXM et H100 NVL.

Cloud GPU VM
Maximisez les per­for­mances de l'IA avec votre VM GPU dans le Cloud
  • GPU NVIDIA H200 exclusifs pour une puissance de calcul maximale
  • Per­for­mances garanties grâce à des cœurs de pro­ces­seurs en­tiè­re­ment dédiés
  • Hé­ber­ge­ment en Europe pour une sécurité maximale des données et une con­for­mité au RGPD
  • Modèle tarifaire simple et pré­vi­sible avec un prix fixe par heure

Les deux versions se dis­tin­guent tant par leur facteur de forme que par leurs per­for­mances, leur bande passante mémoire et leur con­nec­ti­vité. Le H100 SXM est surtout conçu pour une uti­li­sa­tion dans des serveurs à haute densité et pour des en­vi­ron­ne­ments hy­pers­cale. Le H100 NVL, quant à lui, a été conçu pour les slots PCIe, ce qui facilite l’in­té­gra­tion du GPU dans les in­fras­truc­tures serveur exis­tantes. Le tableau ci-dessous donne un aperçu détaillé des ca­rac­té­ris­tiques de per­for­mance des deux variantes du NVIDIA H100 :

Per­for­mances NVIDIA H100 SXM NVIDIA H100 NVL
FP64 34 TFLOPS 30 TFLOPS
Tensor Core FP64 67 TFLOPS 60 TFLOPS
FP32 67 TFLOPS 60 TFLOPS
Tensor Core TF32 989 TFLOPS 835 TFLOPS
Tensor Core BFLOAT16 1 979 TFLOPS 1 671 TFLOPS
Tensor Core FP16 1 979 TFLOPS 1 671 TFLOPS
Tensor Core FP8 3 958 TFLOPS 3 341 TFLOPS
Tensor Core INT8 3 958 TOPS 3 341 TOPS
Mémoire GPU 80 Go 94 Go
Bande passante mémoire GPU 3,35 To/s 3,9 To/s
Décodeur 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG
Puissance maximale d’enveloppe thermique (TDP) 700 W (con­fi­gu­rable) 350-400 W (con­fi­gu­rable)
GPU multi-instance (MIG) Jusqu’à 7 MIG de 10 Go chacun Jusqu’à 7 MIG de 12 Go chacun
Facteur de forme SXM PCIe à deux slots avec re­froi­dis­se­ment par air
Interface NVIDIA NVLink 900 Go/s, PCIe Gen5 : 120 Go/s NVIDIA NVLink : 600 Go/s, PCIe Gen5 : 128 Go/s
Options serveur Par­te­naires NVIDIA HGX H100 et systèmes certifiés NVIDIA avec 4 ou 8 GPU, NVIDIA DGX H100 avec 8 GPU Par­te­naires et systèmes certifiés NVIDIA avec 8 GPU maximum
NVIDIA IA En­ter­prise Add-on Inclus
Note

TFLOPS (Tera Floating Point Ope­ra­tions per Second) est une unité utilisée pour décrire la vitesse de trai­te­ment des or­di­na­teurs (virgule flottante). Un TFLOPS cor­res­pond à un billion de calculs par seconde (10¹²). Il en va de même pour l’unité TOPS (Tera Ope­ra­tions per Second), à la dif­fé­rence qu’elle désigne des opé­ra­tions sur des nombres entiers.

Avantages et in­con­vé­nients du NVIDIA H100

Le NVIDIA H100 compte parmi les GPU les plus puissants du marché et est doté de nom­breuses tech­no­lo­gies et fonc­tion­na­li­tés avancées. Les prin­ci­paux avantages du GPU H100 sont :

  • Très grande puissance de calcul : le H100 offre une per­for­mance ex­cep­tion­nelle en FP8 et FP16 avec ses Tensor Cores, ce qui le rend idéal pour les charges de travail complexes et in­ten­sives en données comme les Large Language Models (LLM). L’in­te­rac­tion entre les Tensor Cores de quatrième gé­né­ra­tion et le moteur Trans­for­mer peut améliorer con­si­dé­ra­ble­ment l’ef­fi­ca­cité des opé­ra­tions d’IA.
  • NVLink et NVSwitch : le NVIDIA H100 supporte le NVLink de quatrième gé­né­ra­tion, ce qui permet de connecter plusieurs GPU de serveurs entre eux avec une bande passante bi­di­rec­tion­nelle de 900 Go/s. Grâce à NVSwitch, il est également possible de faire évoluer les clusters de manière flexible.
  • **GPU multi-instance (MIG) : le GPU peut être par­ti­tionné en maximum sept instances GPU in­dé­pen­dantes, ce qui permet d’exécuter si­mul­ta­né­ment plusieurs charges de travail avec des res­sources dédiées. Ce découpage améliore la flexi­bi­lité et l’ef­fi­ca­cité dans les en­vi­ron­ne­ments in­for­ma­tiques partagés.
  • Con­fi­den­tial Computing : grâce à la fonction de sécurité intégrée, la con­fi­den­tia­lité et l’intégrité des données sont protégées tout au long du processus de travail.
  • Mémoire HBM3 et support PCIe Gen5 : avec jusqu’à 94 Go de mémoire HBM3 et une bande passante pouvant atteindre 3,9 To/s, le NVIDIA H100 offre l’une des mémoires les plus per­for­mantes pour les charges de travail in­ten­sives en données. En com­bi­nai­son avec PCIe Gen5, il permet un transfert de données très rapide.

Un in­con­vé­nient toutefois : la haute per­for­mance du NVIDIA H100 se reflète aussi dans son prix. Selon le modèle, les GPU coûtent entre 30 000 et 40 000 €. C’est pourquoi les instances H100 sont com­pa­ra­ti­ve­ment chères, même dans les en­vi­ron­ne­ments Cloud. La dis­po­ni­bi­lité de ce GPU pour serveurs est en outre limitée : en raison de la forte demande, on observe ré­gu­liè­re­ment des retards de livraison et de longs temps d’attente.

Dans quels domaines le GPU NVIDIA H100 est-il le mieux adapté ?

Le GPU NVIDIA H100 a été spé­cia­le­ment conçu pour les charges de travail à forte intensité de calcul et convient par­ti­cu­liè­re­ment aux ap­pli­ca­tions IA et HPC exi­geantes. L’aperçu suivant montre les prin­ci­paux domaines d’uti­li­sa­tion du GPU H100 :

  • En­traî­ne­ment de grands modèles d’IA : grâce à sa puissance de calcul im­por­tante, le GPU accélère con­si­dé­ra­ble­ment l’en­traî­ne­ment de réseaux neuronaux complexes et de grands modèles lin­guis­tiques tels que GPT ou LLaMA.
  • Inférence IA en temps réel : le H100 peut exécuter des modèles d’IA déjà entraînés à des vitesses de pointe, ce qui est un avantage dans des domaines comme le trai­te­ment du langage et la re­con­nais­sance d’images.
  • Cloud et data centers : le H100 constitue la base de nombreux serveurs GPU en four­nis­sant la capacité de trai­te­ment né­ces­saire aux charges de travail complexes.
  • High Per­for­mance Computing (HPC) : les calculs et les si­mu­la­tions scien­ti­fiques bé­né­fi­cient de la haute per­for­mance en FP64 des GPU H100.
  • IA gé­né­ra­tive : le NVIDIA H100 est par­fai­te­ment adapté à la gé­né­ra­tion au­to­ma­ti­sée de texte, d’images et de vidéos avec des modèles d’IA. Le GPU permet de traiter ra­pi­de­ment et ef­fi­ca­ce­ment les grands ensembles de données né­ces­saires à l’IA gé­né­ra­tive.
  • Analyse des données : le H100, basé sur l’ar­chi­tec­ture Hopper, aide les en­tre­prises de dif­fé­rents secteurs, comme la lo­gis­tique et la finance, à faire des pré­vi­sions et des pré­dic­tions précises à partir de grandes quantités de données.
Serveurs GPU
Hardware dédié avec une puissante carte graphique

Utilisez la puissance de calcul GPU en toute flexi­bi­lité pour gérer de grandes quantités de données et payez uni­que­ment les res­sources utilisées.

Quelles sont les al­ter­na­tives possibles au GPU H100 ?

Bien que le NVIDIA H100 soit l’un des GPU les plus puissants pour l’IA et le HPC, d’autres solutions peuvent être en­vi­sa­gées selon l’usage prévu et les con­traintes bud­gé­taires, par exemple pour une meilleure ren­ta­bi­lité. Parmi les al­ter­na­tives possibles, on peut citer :

  • NVIDIA A100 : le modèle précédent offre également de solides per­for­mances pour l’ap­pren­tis­sage de l’IA, l’inférence et le HPC, tout en étant plus éco­no­mique.
  • NVIDIA A30 : l’A30 combine des per­for­mances élevées avec un prix abordable.
  • NVIDIA H200 : le H200 re­pré­sente une version lé­gè­re­ment améliorée du GPU NVIDIA H100, qui dispose par exemple d’une bande passante mémoire encore plus élevée.
  • Intel Gaudi 3 : cet ac­cé­lé­ra­teur IA fournit des per­for­mances élevées pour l’inférence IA.
Note

Découvrez plus en détail les pro­ces­seurs gra­phiques les plus utilisés ac­tuel­le­ment dans notre guide com­pa­ra­tif des GPU pour serveurs.

Aller au menu principal