Hopp til produktinformasjon
1 av 5

Illustrasjonsbilde av NVIDIA H100 80GB PCIe. Produktet er brukt – mottatt enhet er testet og klargjort av Axentra, men kan avvike fra bildet i mindre detaljer som merker, etiketter og overflateslitasje.

NVIDIA H100 80GB PCIe

NVIDIA H100 80GB PCIe

Vanlig pris 500.000,00 kr (Eks MVA: 400.000,00 kr)
Vanlig pris Salgspris 500.000,00 kr
Salg Utsolgt
Inkludert avgifter.
Antall

Lav lagerbeholdning: 1 igjen

Vis alle detaljer

Illustrasjonsbilde av NVIDIA H100 80GB PCIe. Produktet er brukt – mottatt enhet er testet og klargjort av Axentra, men kan avvike fra bildet i mindre detaljer som merker, etiketter og overflateslitasje.

Om Produktet

NVIDIA H100 80GB PCIe er en av verdens mest avanserte datacenter-GPU-er for AI, maskinlæring og HPC. Hopper-arkitekturen gir et generasjonssprang i ytelse for trening og inferens av store modeller.

Dette er bestillingsvare, og noe leveringstid må påregnes.

Neste generasjon AI-ytelse

NVIDIA H100 er etterfølgeren til A100 og bygger på den nye Hopper-arkitekturen, utviklet spesielt for moderne AI-arbeidslaster. Med støtte for Transformer Engine, 4. generasjon Tensor Cores og betydelig økt minnebåndbredde gir H100 et kraftig løft i ytelse for trening av store språkmodeller, generativ AI og andre GPU-akselererte beregninger.

H100 er optimalisert for transformer-baserte modeller og kan redusere treningstid betydelig sammenlignet med tidligere generasjoner GPU-er.

Massivt GPU-minne og båndbredde

Kortet er utstyrt med 80 GB HBM2e-minne med opptil 2 TB/s minnebåndbredde. Dette gjør det mulig å håndtere store datasett og modeller direkte i GPU-minnet, noe som reduserer flaskehalser i AI-trening og HPC-beregninger.

Den høye minnebåndbredden er spesielt viktig for moderne AI-arbeidslaster der enorme mengder data må flyttes raskt mellom GPU-kjerner og minne.

PCIe Gen5 og fleksibel integrasjon

PCIe-versjonen av H100 passer direkte i standard serversystemer med fullhøyde PCIe-slot, uten behov for spesialisert HGX-baseboard. Kortet støtter PCIe Gen5 x16, som gir dobbelt så høy båndbredde som Gen4, samtidig som det er bakoverkompatibelt med eksisterende Gen4-plattformer.

Dette gjør H100 PCIe til en fleksibel løsning for oppgradering av eksisterende AI-servere eller bygging av nye GPU-noder.

Avanserte AI-funksjoner

H100 introduserer flere teknologier utviklet spesielt for moderne AI-plattformer. Transformer Engine gir dedikert akselerasjon for transformer-baserte modeller som LLM-er og NLP-systemer. Samtidig gjør Multi-Instance GPU (MIG) det mulig å dele GPU-en opp i opptil syv isolerte instanser for multi-tenant arbeidsbelastninger.

GPU-en støtter også Confidential Computing, som gir maskinvarebasert sikkerhet for sensitive AI-arbeidslaster og datasett.

Kjøling og serverkrav

H100 PCIe har et 350 W TDP og bruker passiv kjøling. Kortet er designet for serversystemer med høy luftgjennomstrømning og monteres som et dobbelslot fullhøyde PCIe-kort.

For systemer som krever enda høyere ytelse kan to H100 PCIe-kort kobles sammen via NVLink, noe som gir opptil 600 GB/s GPU-til-GPU-båndbredde og delt minne mellom kortene.

Stand og levering

GPU-en er brukt og profesjonelt testet før levering for å sikre stabil drift i servermiljøer.

Passer godt til: AI-trening, LLM-inferens, generativ AI, HPC-simuleringer, forskning, datasentre og GPU-akselererte arbeidsbelastninger i enterprise-miljøer.

Spesifikasjoner: NVIDIA H100 80GB PCIe
GPU-modell NVIDIA H100
Arkitektur NVIDIA Hopper
CUDA-kjerner 14 592
Tensor Cores 456 (4. generasjon)
Videominne 80 GB HBM2e
Minnebåndbredde Opptil 2 TB/s
PCIe-grensesnitt PCIe Gen5 x16 (bakoverkompatibel med Gen4)
NVLink-støtte Ja – opptil 600 GB/s GPU-til-GPU-båndbredde
Multi-Instance GPU MIG 2. generasjon – opptil 7 isolerte instanser
AI-akselerasjon Transformer Engine
Sikkerhet Confidential Computing
Formfaktor Dobbelslot fullhøyde PCIe
Kjøling Passiv (serverkjøling kreves)
TDP 350 W
Stand Brukt – testet og klargjort
Levering Bestillingsvare – leveringstid må påregnes