|
A100 80 GB PCIe | A100 80GB SXM | |||
---|---|---|---|---|
FP64 | 9,7 TFLOPSÓW | |||
Rdzeń tensorowy FP64 | 19,5 TFLOPSÓW | |||
FP32 | 19,5 TFLOPSÓW | |||
Pływak tensorowy 32 (TF32) | 156 TFLOPSÓW |312 TFLOPSÓW* | |||
Rdzeń tensorowy BFLOAT16 | 312 TFLOPSÓW |624 TFLOPS* | |||
Rdzeń tensorowy FP16 | 312 TFLOPSÓW |624 TFLOPS* | |||
Rdzeń tensorowy INT8 | 624 BLATY |1248 BLATY* | |||
Pamięć GPU | 80 GB HBM2 | 80 GB HBM2e | ||
Przepustowość pamięci GPU | 1935 GB/s | 2039 GB/s | ||
(TDP) | 300 W | 400 W *** | ||
GPU z wieloma instancjami | MAKSYMALNIE 7 MIG @ 5 GB | MAKSYMALNIE 7 MIG @ 10 GB | ||
Współczynnik kształtu | PCIe Dwuszczelinowy chłodzony powietrzem lub jednoszczelinowy chłodzony cieczą |
SXM | ||
Połączyć się | NVIDIA®NVLink®Most 2 bloki GPU: 600 GB/s ** PCIe 4.0: 64 GB/s |
NVLink: 600 GB/s PCIe 4.0: 64 GB/s |