Translations:Using GPUs with Slurm/2/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
No edit summary
No edit summary
Line 5: Line 5:
| 172  || Béluga || - || 40 || 191000M || 4  || V100-SXM2-16Go || tous les GPU sont associés au même socket CPU et connectés via NVLink
| 172  || Béluga || - || 40 || 191000M || 4  || V100-SXM2-16Go || tous les GPU sont associés au même socket CPU et connectés via NVLink
|-
|-
| 114  || Cedar || P100 || 24 || 128000M || 4  || P100-PCIE-12Go || deux GPU par socket CPU
| 114  || Cedar || p100 || 24 || 128000M || 4  || P100-PCIE-12Go || deux GPU par socket CPU
|-
|-
| 32 || Cedar || P100L || 24|| 257000M || 4  || P100-PCIE-16Go || tous les GPU sont associés au même socket CPU
| 32 || Cedar || p100l || 24|| 257000M || 4  || P100-PCIE-16Go || tous les GPU sont associés au même socket CPU
|-
|-
| 192 || Cedar || V100L || 32 || 192000M || 4  || V100-PCIE-32Go ||  deux GPU par socket CPU; tous les GPU sont connectés via NVLink
| 192 || Cedar || v100l || 32 || 192000M || 4  || V100-PCIE-32Go ||  deux GPU par socket CPU; tous les GPU sont connectés via NVLink
|-
|-
| 160 || Graham || P100 || 32 || 127518M || 2  || P100-PCIE-12Go || un GPU par socket CPU
| 160 || Graham || p100 || 32 || 127518M || 2  || P100-PCIE-12Go || un GPU par socket CPU
|-
|-
| 7 || Graham || V100 || 28|| 183105M || 8  || V100-PCIE-16Go || voir [[Graham/fr#Nœuds_GPU_Volta|Nœuds GPU Volta sur la page Graham]]
| 7 || Graham || v100 || 28|| 183105M || 8  || V100-PCIE-16Go || voir [[Graham/fr#Nœuds_GPU_Volta|Nœuds GPU Volta sur la page Graham]]
|-
|-
| 30 || Graham || T4 || 44 || 192000M || 4 || Tesla T4-16Go || deux GPU par socket CPU
| 30 || Graham || t4 || 44 || 192000M || 4 || Tesla T4-16Go || deux GPU par socket CPU
|-
|-
| 15 || Hélios || K20 || 20 || 110000M || 8 || K20-5Go || quatre GPU par socket CPU
| 15 || Hélios || k20 || 20 || 110000M || 8 || K20-5Go || quatre GPU par socket CPU
|-
|-
| 6 || Hélios || K80 || 24 || 257000M || 16 || K80-12Go || huit GPU par socket CPU
| 6 || Hélios || k80 || 24 || 257000M || 16 || K80-12Go || huit GPU par socket CPU
|-
|-
| 54 || Mist || - || 32 || 256GoB || 4 ||  V100-SMX2-32Go || voir les [https://docs.scinet.utoronto.ca/index.php/Mist#Specifications spécifications (en anglais)]
| 54 || Mist || - || 32 || 256GoB || 4 ||  V100-SMX2-32Go || voir les [https://docs.scinet.utoronto.ca/index.php/Mist#Specifications spécifications (en anglais)]
|}
|}

Revision as of 19:50, 22 September 2020

Information about message (contribute)
This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
Message definition (Using GPUs with Slurm)
{| class="wikitable"
|-
! rowspan=2|Cluster !! rowspan=2| # of nodes !! rowspan=2|Slurm type<br>specifier !! colspan=3|Per node !! rowspan=2|GPU model  !! rowspan=2|Compute<br>Capability(*) !! rowspan=2|GPU mem<br>(GiB) !! rowspan=2|Notes
|-
!                              CPU cores !! CPU memory !! GPUs 
|-
| Béluga            || 172 ||  v100 ||  40 || 191000M ||  4 || V100-16gb || 70 || 16 || All GPUs associated with the same CPU socket, connected via NVLink and SXM2
|-
| rowspan=3|Cedar  || 114 ||  p100 ||  24 || 128000M ||  4 || P100-12gb || 60 || 12 || Two GPUs per CPU socket, connected via PCIe
|-
|                      32  || p100l ||  24 || 257000M ||  4 || P100-16gb || 60 || 16 || All GPUs associated with the same CPU socket, connected via PCIe
|-
|                      192 || v100l ||  32 || 192000M ||  4 || V100-32gb || 70 || 32 || Two GPUs per CPU socket; all GPUs connected via NVLink and SXM2
|-
| rowspan=5|Graham  || 160 ||  p100 ||  32 || 127518M ||  2 || P100-12gb || 60 || 12 || One GPU per CPU socket, connected via PCIe
|-
|                      7  || v100(**)    ||  28 || 183105M ||  8 || V100-16gb || 70 || 16 || See [[Graham#Volta_GPU_nodes_on_Graham|Graham: Volta GPU nodes]]
|-
|                      2  || v100(***) ||  28 || 183105M ||  8 || V100-32gb || 70 || 32 || See [[Graham#Volta_GPU_nodes_on_Graham|Graham: Volta GPU nodes]]
|-
|                      30  ||  t4  ||  44 || 192000M ||  4 || T4-16gb  || 75 || 16 || Two GPUs per CPU socket
|-
|                      6  ||  t4  ||  16 || 192000M ||  4 || T4-16gb  || 75 || 16 || &nbsp;
|-
| Mist              || 54  || (none) || 32 ||  256GiB ||  4 || V100-32gb || 70 || 32 || See [https://docs.scinet.utoronto.ca/index.php/Mist#Specifications Mist specifications]
|- 
| Narval            || 159 || a100  || 48 || 510000M ||  4 || A100-40gb || 80 || 40 || Two GPUs per CPU socket; all GPUs connected via NVLink 
|-
| Arbutus          ||  colspan=8 | Cloud resources are not schedulable via Slurm. See [[Cloud resources]] for details of available hardware.
|}
Qté de nœuds Grappe Type de nœud Cœurs CPU Mémoire CPU Qté de GPU par nœud Modèle Topologie
172 Béluga - 40 191000M 4 V100-SXM2-16Go tous les GPU sont associés au même socket CPU et connectés via NVLink
114 Cedar p100 24 128000M 4 P100-PCIE-12Go deux GPU par socket CPU
32 Cedar p100l 24 257000M 4 P100-PCIE-16Go tous les GPU sont associés au même socket CPU
192 Cedar v100l 32 192000M 4 V100-PCIE-32Go deux GPU par socket CPU; tous les GPU sont connectés via NVLink
160 Graham p100 32 127518M 2 P100-PCIE-12Go un GPU par socket CPU
7 Graham v100 28 183105M 8 V100-PCIE-16Go voir Nœuds GPU Volta sur la page Graham
30 Graham t4 44 192000M 4 Tesla T4-16Go deux GPU par socket CPU
15 Hélios k20 20 110000M 8 K20-5Go quatre GPU par socket CPU
6 Hélios k80 24 257000M 16 K80-12Go huit GPU par socket CPU
54 Mist - 32 256GoB 4 V100-SMX2-32Go voir les spécifications (en anglais)