Translations:Using GPUs with Slurm/2/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
No edit summary
No edit summary
Line 1: Line 1:
{| class="wikitable"
{| class="wikitable"
|-
|-
! rowspan=2|Grappe!! rowspan=2|Qté de nœuds!! rowspan=2|Type de GPU!!colspan=3|Par nœud!! rowspan=2|Modèle de GPU !! rowspan=2|Mémoire GPU (GiB)!! rowspan=2|Remarques
! rowspan=2|Grappe!! rowspan=2|Qté de nœuds!! rowspan=2|Type de GPU!!colspan=3|Par nœud!! rowspan=2|Modèle de GPU !! rowspan=2|Attribut<br>Compute<br>Capability(*) !! rowspan=2|Mémoire GPU (GiB)!! rowspan=2|Remarques
|-
|-
!                              Cœurs CPU!! Mémoire CPU !! GPU  
!                              Cœurs CPU!! Mémoire CPU !! GPU  
|-
|-
| Béluga            || 172 || v100|| 40 || 191000M ||  4 || V100-SXM2 || 16 || tous les GPU sont associés au même socket CPU et connectés via NVLink
| Béluga            || 172 || v100|| 40 || 191000M ||  4 || V100-SXM2 || 70 || 16 || tous les GPU sont associés au même socket CPU et connectés via NVLink
|-
|-
| rowspan=3|Cedar  || 114 || p100  ||24 || 128000M ||  4 || P100-PCIE || 12 || deux GPU par socket CPU
| rowspan=3|Cedar  || 114 || p100  ||24 || 128000M ||  4 || P100-PCIE || 60 || 12 || deux GPU par socket CPU
|-
|-
|                      32  || p100 || 24 || 257000M ||  4 || P100-PCIE || 16 || tous les GPU sont associés au même socket CPU  
|                      32  || p100 || 24 || 257000M ||  4 || P100-PCIE || 60 || 16 || tous les GPU sont associés au même socket CPU  
|-
|-
|                      192 || v100l ||32 || 192000M ||  4 || V100-SXM2 || 32 || deux GPU par socket CPU; tous les GPU sont connectés via NVLink
|                      192 || v100l ||32 || 192000M ||  4 || V100-SXM2 || 70 || 32 || deux GPU par socket CPU; tous les GPU sont connectés via NVLink
|-
|-
| rowspan=5|Graham  || 160 || p100  ||32 || 127518M ||  2 || P100-PCIE || 12 || un GPU par socket CPU
| rowspan=5|Graham  || 160 || p100  ||32 || 127518M ||  2 || P100-PCIE || 60 || 12 || un GPU par socket CPU
|-
|-
|                      7  || v100  ||28 || 183105M ||  8 || V100-PCIE || 16 || voir  [[Graham/fr#Nœuds_GPU_Volta|Nœuds GPU Volta]]
|                      7  || v100  ||28 || 183105M ||  8 || V100-PCIE || 70 || 16 || voir  [[Graham/fr#Nœuds_GPU_Volta|Nœuds GPU Volta]]
|-
|-
|                      2  || v100l || 28 || 183105M ||  8 || V100-PCIE|| 32 ||  voir  [[Graham/fr#Nœuds_GPU_Volta|Nœuds GPU Volta]]-
|                      2  || v100l || 28 || 183105M ||  8 || V100-PCIE|| 70 || 32 ||  voir  [[Graham/fr#Nœuds_GPU_Volta|Nœuds GPU Volta]]-
|-
|-
|                      30  || t4    ||44 || 192000M ||  4 || Tesla T4  || 16 || deux GPU par socket CPU
|                      30  || t4    ||44 || 192000M ||  4 || Tesla T4  || 75 || 16 || deux GPU par socket CPU
|-
|-
|                      6  || t4    ||16 || 192000M ||  4 || Tesla T4  || 16 || &nbsp
|                      6  || t4    ||16 || 192000M ||  4 || Tesla T4  || 75 || 16 || &nbsp
|-
|-
| rowspan=2|Hélios  || 15  || k20  ||20 || 110000M ||  8 || K20      ||  5 || quatre GPU par socket CPU
| rowspan=2|Hélios  || 15  || k20  ||20 || 110000M ||  8 || K20      || 35 ||  5 || quatre GPU par socket CPU
|-  
|-  
|                      6  || k80  ||24 || 257000M || 16 || K80      || 12 || huit GPU par socket CPU
|                      6  || k80  ||24 || 257000M || 16 || K80      || 37 || 12 || huit GPU par socket CPU
|-  
|-  
| Mist              || 54  || n.a. || 32 ||  256GiB ||  4 || V100-SXM2 || 32 || voir [https://docs.scinet.utoronto.ca/index.php/Mist#Specifications Mist specifications]  
| Mist              || 54  || n.a. || 32 ||  256GiB ||  4 || V100-SXM2 || 70 || 32 || voir [https://docs.scinet.utoronto.ca/index.php/Mist#Specifications Mist specifications]  
|-  
|-  
| Narval            || 159 || a100 || 48 || 510000M ||  4 || A100      || 40 || deux GPU par socket CPU; tous les GPU sont connectés via NVLink  
| Narval            || 159 || a100 || 48 || 510000M ||  4 || A100      || 80 || 40 || deux GPU par socket CPU; tous les GPU sont connectés via NVLink  
|-
|-
| Arbutus          ||  colspan=8 | L'ordonnanceur Slurm ne gère pas les ressources infonuagiques. Voir [[Cloud resources/fr|Ressources infonuagiques]] pour l'information sur le matériel disponible.
| Arbutus          ||  colspan=8 | L'ordonnanceur Slurm ne gère pas les ressources infonuagiques. Voir [[Cloud resources/fr|Ressources infonuagiques]] pour l'information sur le matériel disponible.
|}
|}

Revision as of 17:24, 21 January 2022

Information about message (contribute)
This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
Message definition (Using GPUs with Slurm)
{| class="wikitable"
|-
! rowspan=2|Cluster !! rowspan=2| # of nodes !! rowspan=2|Slurm type<br>specifier !! colspan=3|Per node !! rowspan=2|GPU model  !! rowspan=2|Compute<br>Capability(*) !! rowspan=2|GPU mem<br>(GiB) !! rowspan=2|Notes
|-
!                              CPU cores !! CPU memory !! GPUs 
|-
| Béluga            || 172 ||  v100 ||  40 || 191000M ||  4 || V100-16gb || 70 || 16 || All GPUs associated with the same CPU socket, connected via NVLink and SXM2
|-
| rowspan=3|Cedar  || 114 ||  p100 ||  24 || 128000M ||  4 || P100-12gb || 60 || 12 || Two GPUs per CPU socket, connected via PCIe
|-
|                      32  || p100l ||  24 || 257000M ||  4 || P100-16gb || 60 || 16 || All GPUs associated with the same CPU socket, connected via PCIe
|-
|                      192 || v100l ||  32 || 192000M ||  4 || V100-32gb || 70 || 32 || Two GPUs per CPU socket; all GPUs connected via NVLink and SXM2
|-
| rowspan=5|Graham  || 160 ||  p100 ||  32 || 127518M ||  2 || P100-12gb || 60 || 12 || One GPU per CPU socket, connected via PCIe
|-
|                      7  || v100(**)    ||  28 || 183105M ||  8 || V100-16gb || 70 || 16 || See [[Graham#Volta_GPU_nodes_on_Graham|Graham: Volta GPU nodes]]
|-
|                      2  || v100(***) ||  28 || 183105M ||  8 || V100-32gb || 70 || 32 || See [[Graham#Volta_GPU_nodes_on_Graham|Graham: Volta GPU nodes]]
|-
|                      30  ||  t4  ||  44 || 192000M ||  4 || T4-16gb  || 75 || 16 || Two GPUs per CPU socket
|-
|                      6  ||  t4  ||  16 || 192000M ||  4 || T4-16gb  || 75 || 16 || &nbsp;
|-
| Mist              || 54  || (none) || 32 ||  256GiB ||  4 || V100-32gb || 70 || 32 || See [https://docs.scinet.utoronto.ca/index.php/Mist#Specifications Mist specifications]
|- 
| Narval            || 159 || a100  || 48 || 510000M ||  4 || A100-40gb || 80 || 40 || Two GPUs per CPU socket; all GPUs connected via NVLink 
|-
| Arbutus          ||  colspan=8 | Cloud resources are not schedulable via Slurm. See [[Cloud resources]] for details of available hardware.
|}
Grappe Qté de nœuds Type de GPU Par nœud Modèle de GPU Attribut
Compute
Capability(*)
Mémoire GPU (GiB) Remarques
Cœurs CPU Mémoire CPU GPU
Béluga 172 v100 40 191000M 4 V100-SXM2 70 16 tous les GPU sont associés au même socket CPU et connectés via NVLink
Cedar 114 p100 24 128000M 4 P100-PCIE 60 12 deux GPU par socket CPU
32 p100 24 257000M 4 P100-PCIE 60 16 tous les GPU sont associés au même socket CPU
192 v100l 32 192000M 4 V100-SXM2 70 32 deux GPU par socket CPU; tous les GPU sont connectés via NVLink
Graham 160 p100 32 127518M 2 P100-PCIE 60 12 un GPU par socket CPU
7 v100 28 183105M 8 V100-PCIE 70 16 voir Nœuds GPU Volta
2 v100l 28 183105M 8 V100-PCIE 70 32 voir Nœuds GPU Volta-
30 t4 44 192000M 4 Tesla T4 75 16 deux GPU par socket CPU
6 t4 16 192000M 4 Tesla T4 75 16 &nbsp
Hélios 15 k20 20 110000M 8 K20 35 5 quatre GPU par socket CPU
6 k80 24 257000M 16 K80 37 12 huit GPU par socket CPU
Mist 54 n.a. 32 256GiB 4 V100-SXM2 70 32 voir Mist specifications
Narval 159 a100 48 510000M 4 A100 80 40 deux GPU par socket CPU; tous les GPU sont connectés via NVLink
Arbutus L'ordonnanceur Slurm ne gère pas les ressources infonuagiques. Voir Ressources infonuagiques pour l'information sur le matériel disponible.