{"product_id":"nvidia-h100-80gb-pcie","title":"NVIDIA H100 80GB PCIe","description":"\u003c!-- ========== START: Shopify produktbeskrivelse HTML ========== --\u003e\n\u003cdiv class=\"product-desc\"\u003e\n\n  \u003cp class=\"product-tagline\"\u003eNVIDIA H100 80GB PCIe er en av verdens mest avanserte datacenter-GPU-er for AI, maskinlæring og HPC. Hopper-arkitekturen gir et generasjonssprang i ytelse for trening og inferens av store modeller.\u003c\/p\u003e\n\n  \u003c!-- ===== BRØDTEKST ===== --\u003e\n  \u003cdiv class=\"product-body\"\u003e\n      \u003cp class=\"order-item-note\"\u003eDette er \u003cstrong\u003ebestillingsvare\u003c\/strong\u003e, og noe leveringstid må påregnes.\u003c\/p\u003e\n    \u003ch3\u003eNeste generasjon AI-ytelse\u003c\/h3\u003e\n    \u003cp\u003eNVIDIA H100 er etterfølgeren til A100 og bygger på den nye \u003cstrong\u003eHopper-arkitekturen\u003c\/strong\u003e, utviklet spesielt for moderne AI-arbeidslaster. Med støtte for \u003cstrong\u003eTransformer Engine\u003c\/strong\u003e, 4. generasjon Tensor Cores og betydelig økt minnebåndbredde gir H100 et kraftig løft i ytelse for trening av store språkmodeller, generativ AI og andre GPU-akselererte beregninger.\u003c\/p\u003e\n\n    \u003cp\u003eH100 er optimalisert for transformer-baserte modeller og kan redusere treningstid betydelig sammenlignet med tidligere generasjoner GPU-er.\u003c\/p\u003e\n\n    \u003ch3\u003eMassivt GPU-minne og båndbredde\u003c\/h3\u003e\n    \u003cp\u003eKortet er utstyrt med \u003cstrong\u003e80 GB HBM2e-minne\u003c\/strong\u003e med opptil \u003cstrong\u003e2 TB\/s minnebåndbredde\u003c\/strong\u003e. Dette gjør det mulig å håndtere store datasett og modeller direkte i GPU-minnet, noe som reduserer flaskehalser i AI-trening og HPC-beregninger.\u003c\/p\u003e\n\n    \u003cp\u003eDen høye minnebåndbredden er spesielt viktig for moderne AI-arbeidslaster der enorme mengder data må flyttes raskt mellom GPU-kjerner og minne.\u003c\/p\u003e\n\n    \u003ch3\u003ePCIe Gen5 og fleksibel integrasjon\u003c\/h3\u003e\n    \u003cp\u003ePCIe-versjonen av H100 passer direkte i standard serversystemer med \u003cstrong\u003efullhøyde PCIe-slot\u003c\/strong\u003e, uten behov for spesialisert HGX-baseboard. Kortet støtter \u003cstrong\u003ePCIe Gen5 x16\u003c\/strong\u003e, som gir dobbelt så høy båndbredde som Gen4, samtidig som det er bakoverkompatibelt med eksisterende Gen4-plattformer.\u003c\/p\u003e\n\n    \u003cp\u003eDette gjør H100 PCIe til en fleksibel løsning for oppgradering av eksisterende AI-servere eller bygging av nye GPU-noder.\u003c\/p\u003e\n\n    \u003ch3\u003eAvanserte AI-funksjoner\u003c\/h3\u003e\n    \u003cp\u003eH100 introduserer flere teknologier utviklet spesielt for moderne AI-plattformer. \u003cstrong\u003eTransformer Engine\u003c\/strong\u003e gir dedikert akselerasjon for transformer-baserte modeller som LLM-er og NLP-systemer. Samtidig gjør \u003cstrong\u003eMulti-Instance GPU (MIG)\u003c\/strong\u003e det mulig å dele GPU-en opp i opptil syv isolerte instanser for multi-tenant arbeidsbelastninger.\u003c\/p\u003e\n\n    \u003cp\u003eGPU-en støtter også \u003cstrong\u003eConfidential Computing\u003c\/strong\u003e, som gir maskinvarebasert sikkerhet for sensitive AI-arbeidslaster og datasett.\u003c\/p\u003e\n\n    \u003ch3\u003eKjøling og serverkrav\u003c\/h3\u003e\n    \u003cp\u003eH100 PCIe har et \u003cstrong\u003e350 W TDP\u003c\/strong\u003e og bruker passiv kjøling. Kortet er designet for serversystemer med høy luftgjennomstrømning og monteres som et \u003cstrong\u003edobbelslot fullhøyde PCIe-kort\u003c\/strong\u003e.\u003c\/p\u003e\n\n    \u003cp\u003eFor systemer som krever enda høyere ytelse kan to H100 PCIe-kort kobles sammen via \u003cstrong\u003eNVLink\u003c\/strong\u003e, noe som gir opptil \u003cstrong\u003e600 GB\/s GPU-til-GPU-båndbredde\u003c\/strong\u003e og delt minne mellom kortene.\u003c\/p\u003e\n\n    \u003ch3\u003eStand og levering\u003c\/h3\u003e\n    \u003cp\u003eGPU-en er \u003cstrong\u003ebrukt og profesjonelt testet\u003c\/strong\u003e før levering for å sikre stabil drift i servermiljøer.\u003c\/p\u003e\n\n    \u003cp\u003e\u003cstrong\u003ePasser godt til:\u003c\/strong\u003e AI-trening, LLM-inferens, generativ AI, HPC-simuleringer, forskning, datasentre og GPU-akselererte arbeidsbelastninger i enterprise-miljøer.\u003c\/p\u003e\n\n  \u003c\/div\u003e\n\n  \u003c!-- ===== SPESIFIKASJONSTABELLEN ===== --\u003e\n  \u003ctable class=\"product-spec-table\"\u003e\n    \u003ccaption\u003eSpesifikasjoner: NVIDIA H100 80GB PCIe\u003c\/caption\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eGPU-modell\u003c\/th\u003e\n      \u003ctd\u003eNVIDIA H100\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eArkitektur\u003c\/th\u003e\n      \u003ctd\u003eNVIDIA Hopper\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eCUDA-kjerner\u003c\/th\u003e\n      \u003ctd\u003e14 592\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eTensor Cores\u003c\/th\u003e\n      \u003ctd\u003e456 (4. generasjon)\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eVideominne\u003c\/th\u003e\n      \u003ctd\u003e80 GB HBM2e\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eMinnebåndbredde\u003c\/th\u003e\n      \u003ctd\u003eOpptil 2 TB\/s\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003ePCIe-grensesnitt\u003c\/th\u003e\n      \u003ctd\u003ePCIe Gen5 x16 (bakoverkompatibel med Gen4)\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eNVLink-støtte\u003c\/th\u003e\n      \u003ctd\u003eJa – opptil 600 GB\/s GPU-til-GPU-båndbredde\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eMulti-Instance GPU\u003c\/th\u003e\n      \u003ctd\u003eMIG 2. generasjon – opptil 7 isolerte instanser\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eAI-akselerasjon\u003c\/th\u003e\n      \u003ctd\u003eTransformer Engine\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eSikkerhet\u003c\/th\u003e\n      \u003ctd\u003eConfidential Computing\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eFormfaktor\u003c\/th\u003e\n      \u003ctd\u003eDobbelslot fullhøyde PCIe\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eKjøling\u003c\/th\u003e\n      \u003ctd\u003ePassiv (serverkjøling kreves)\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eTDP\u003c\/th\u003e\n      \u003ctd\u003e350 W\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eStand\u003c\/th\u003e\n      \u003ctd\u003eBrukt – testet og klargjort\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n    \u003ctr\u003e\n      \u003cth\u003eLevering\u003c\/th\u003e\n      \u003ctd\u003eBestillingsvare – leveringstid må påregnes\u003c\/td\u003e\n    \u003c\/tr\u003e\n\n  \u003c\/table\u003e\n\n\n\u003c\/div\u003e\n\u003c!-- ========== SLUTT: Shopify produktbeskrivelse HTML ========== --\u003e","brand":"Nvidia","offers":[{"title":"Default Title","offer_id":47460536320236,"sku":null,"price":500000.0,"currency_code":"NOK","in_stock":true}],"thumbnail_url":"\/\/cdn.shopify.com\/s\/files\/1\/0785\/9372\/0556\/files\/image_1774949201726.jpg?v=1774949650","url":"https:\/\/axentra.no\/products\/nvidia-h100-80gb-pcie","provider":"Axentra","version":"1.0","type":"link"}