Nvidia
NVIDIA har officielt lanceret A100, en PCIe 4.0-kompatibel GPU baseret på næste generations Ampere-arkitektur. Selvom den har en lavere 250 W TDP-profil, lover NVIDIA, at PCIe 4.0 Ampere A100 GPU vil være i stand til at tilbyde op til 90 procent af ydeevnen for den fulde 400 W A100 HGX GPU. Den tredje variant af den voksende Ampere A100 GPU-familie, A100 PCIe, er beregnet til servere, der kører kunstig intelligens (AI), datalogi og supercomputer-klynger.
NVIDIA afslørede en PCI-Express 4.0-variant af A100 GPU. GPU'en er baseret på 7 nm Ampere mikroarkitektur. Derudover annoncerede virksomheden også flere A100-drevne systemer fra førende serverproducenter, herunder Asus, Dell, Cisco, Lenovo og mere. 250W A100 PCIe 4.0 GPU-acceleratoren ligner den fulde 400W TDP-variant, og NVIDIA lover også næsten identisk ydeevne på trods af det markante fald i TDP-profilen.
NVIDIA A100 Ampere GPU i PCIe 4.0 formfaktor med samme 400W A100 HGX GPU-konfiguration, men ved 250W:
NVIDIA har annonceret sin PCIe 4.0 A100 PCIe GPU-accelerator. Ampere GPU'en er tilgængelig til en række forskellige sager til industriel brug med systemer, der spænder fra en enkelt A100 PCIe GPU til servere, der bruger to kort på samme tid gennem de 12 NVLINK-kanaler, der leverer i alt 600 GB / s interconnect-båndbredde. 250 W TDP A100 PCIe GPU-accelerator ændrer sig ikke meget med hensyn til kernekonfiguration sammenlignet med 400 W A100 HGX GPU.
I år hos ISC Digital, @nvidia fremsatte meddelelser omkring A100 #GPU og et nyt #AI platform til #supercomputing , #NVIDIA Mellanox UFM Cyber-AI-platform. Find detaljerne her! ☺️ #TechNews @NVIDIADC @NVIDIAAI @mellanoxtech #AI #Mandag morgen https://t.co/YXrFGlTYJ0
- StorageReview.com (@storagereview) 22. juni 2020
GA100 GPU har specifikationerne for 400W A100 HGX-varianten med 6912 CUDA-kerner arrangeret i 108 SM-enheder, 432 Tensor Cores og 40 GB HBM2-hukommelse, der leverer den samme hukommelsesbåndbredde på 1,55 TB / s (afrundet til 1,6 TB / s). Imidlertid implementering af GPU-pakken på PCIe 4.0 standard havde sin egen ulempe med at reducere TDP betydeligt. Dette betyder angiveligt en 10 - 50 procent præstationsstraffe baseret på arbejdsbyrden. Desuden er 250 W TDP-varianten af A100 GPU mere egnet til korte bursts snarere end vedvarende belastninger.
NVIDIA A100 Ampere GPU i PCIe 4.0 Form-Factor-ydeevne:
På grund af den betydelige reduktion i TDP-profilen kunne det antages, at kortet ville have lavere ure for at kompensere for den mindre TDP-input. Imidlertid er de præstationsmålinger, som NVIDIA har frigivet, virkelig overraskende, da de kommer ret tæt på 400 W TDP-varianten. FP64-ydelsen er stadig bedømt til 9,7 / 19,5 TFLOP'er, FP32-ydeevne er vurderet til 19,5 / 156/312 TFLOP'er (Sparsity), FP16-ydelsen er bedømt til 312/624 TFLOP'er (Sparsity), og INT8 er vurderet til 624/1248 TOP'er ( Sparsity).
[PR] GIGABYTE introducerer en bred portefølje af G-seriens servere drevet af NVIDIA A100 PCIe https://t.co/Jxjrjzpl0F pic.twitter.com/Lr5KNvhx09
- TechPowerUp (@TechPowerUp) 22. juni 2020
Enkel matematik indikerer, og NVIDIA forsikrer, at den Ampere-baserede PCIe 4.0 250W A100 GPU kan levere 90 procent af A100 HGX-kortets (400W) ydelse i topserverapplikationer. Dette er berettiget, fordi det tager kortere tid for den nye variant at gennemføre ovennævnte opgaver. Tallene skal dog kun være gyldige i korte intervaller. I komplekse situationer, der krævede vedvarende GPU-funktioner, kan 250 W PCIe 4.0 GPU levere alt fra op til 90 procent til ned til 50 procent ydeevnen for 400 W A100 HGX GPU.
Supermicro udvider brancheførende portefølje af GPU-systemer med fuld support til det nye @NVIDIA A100 PCI-E GPU'er på over et dusin systemer.
Lær mere: https://t.co/K8g41s7sKv #NVIDIA #Supermicro # A100 #AI #HPC #GPU @NVIDIADC pic.twitter.com/9og6gfdrlw
- Supermicro (@Supermicro_SMCI) 22. juni 2020
Ampere mikroarkitekturen vil helt sikkert gavne den nye A100. NVIDIA lover mindst et 20X performance boost i forhold til den Volta-baserede forgænger. PCIe 4.0 A100 GPU har GPU med flere instanser. Dette betyder, at en enkelt A100 kan opdeles i så mange som syv separate GPU'er til at håndtere forskellige computeropgaver. Mens dette øger segmenteringen, er der 3. generations NVLink, som gør det muligt at forbinde flere GPU'er til en kæmpe GPU.
Mærker nvidia