NVIDIA H100 80GB PCIe er en av verdens mest avanserte datacenter-GPU-er for AI, maskinlæring og HPC. Hopper-arkitekturen gir et generasjonssprang i ytelse for trening og inferens av store modeller.
Dette er bestillingsvare, og noe leveringstid må påregnes.
Neste generasjon AI-ytelse
NVIDIA H100 er etterfølgeren til A100 og bygger på den nye Hopper-arkitekturen, utviklet spesielt for moderne AI-arbeidslaster. Med støtte for Transformer Engine, 4. generasjon Tensor Cores og betydelig økt minnebåndbredde gir H100 et kraftig løft i ytelse for trening av store språkmodeller, generativ AI og andre GPU-akselererte beregninger.
H100 er optimalisert for transformer-baserte modeller og kan redusere treningstid betydelig sammenlignet med tidligere generasjoner GPU-er.
Massivt GPU-minne og båndbredde
Kortet er utstyrt med 80 GB HBM2e-minne med opptil 2 TB/s minnebåndbredde. Dette gjør det mulig å håndtere store datasett og modeller direkte i GPU-minnet, noe som reduserer flaskehalser i AI-trening og HPC-beregninger.
Den høye minnebåndbredden er spesielt viktig for moderne AI-arbeidslaster der enorme mengder data må flyttes raskt mellom GPU-kjerner og minne.
PCIe Gen5 og fleksibel integrasjon
PCIe-versjonen av H100 passer direkte i standard serversystemer med fullhøyde PCIe-slot, uten behov for spesialisert HGX-baseboard. Kortet støtter PCIe Gen5 x16, som gir dobbelt så høy båndbredde som Gen4, samtidig som det er bakoverkompatibelt med eksisterende Gen4-plattformer.
Dette gjør H100 PCIe til en fleksibel løsning for oppgradering av eksisterende AI-servere eller bygging av nye GPU-noder.
Avanserte AI-funksjoner
H100 introduserer flere teknologier utviklet spesielt for moderne AI-plattformer. Transformer Engine gir dedikert akselerasjon for transformer-baserte modeller som LLM-er og NLP-systemer. Samtidig gjør Multi-Instance GPU (MIG) det mulig å dele GPU-en opp i opptil syv isolerte instanser for multi-tenant arbeidsbelastninger.
GPU-en støtter også Confidential Computing, som gir maskinvarebasert sikkerhet for sensitive AI-arbeidslaster og datasett.
Kjøling og serverkrav
H100 PCIe har et 350 W TDP og bruker passiv kjøling. Kortet er designet for serversystemer med høy luftgjennomstrømning og monteres som et dobbelslot fullhøyde PCIe-kort.
For systemer som krever enda høyere ytelse kan to H100 PCIe-kort kobles sammen via NVLink, noe som gir opptil 600 GB/s GPU-til-GPU-båndbredde og delt minne mellom kortene.
Stand og levering
GPU-en er brukt og profesjonelt testet før levering for å sikre stabil drift i servermiljøer.
Passer godt til: AI-trening, LLM-inferens, generativ AI, HPC-simuleringer, forskning, datasentre og GPU-akselererte arbeidsbelastninger i enterprise-miljøer.