Translations:Using GPUs with Slurm/2/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
No edit summary
No edit summary
 
(9 intermediate revisions by 4 users not shown)
Line 1: Line 1:
{| class="wikitable"
{| class="wikitable"
|-
|-
! rowspan=2|Grappe!! rowspan=2|Qté de nœuds!! rowspan=2|Type de GPU!!colspan=3|Par nœud!! rowspan=2|Modèle de GPU !! rowspan=2|Mémoire GPU (GiB)!! rowspan=2|Remarques
! rowspan=2|Grappe!! rowspan=2|Qté de nœuds!! rowspan=2|Type de GPU!!colspan=3|Par nœud!! rowspan=2|Modèle de GPU !! rowspan=2|Attribut<br>compute<br>capability(*) !! rowspan=2|Mémoire GPU (GiB)!! rowspan=2|Remarques
|-
|-
!                              Cœurs CPU!! Mémoire CPU !! GPU  
!                              Cœurs CPU!! Mémoire CPU !! GPU  
|-
|-
| Béluga            || 172 || v100|| 40 || 191000M ||  4 || V100-SXM2 || 16 || tous les GPU sont associés au même socket CPU et connectés via NVLink
| Béluga            || 172 || v100 || 40 || 191000M ||  4 || V100-16gb || 70 || 16 || tous les GPU sont associés au même socket CPU et connectés via NVLink et SXM2
|-
|-
| rowspan=3|Cedar  || 114 || p100  ||24 || 128000M ||  4 || P100-PCIE || 12 || deux GPU par socket CPU
| rowspan=3|Cedar  || 114 || p100  || 24 || 128000M ||  4 || P100-12gb || 60 || 12 || deux GPU par socket CPU, connectés par PCIe
|-
|-
|                      32  || p100 || 24 || 257000M ||  4 || P100-PCIE || 16 || tous les GPU sont associés au même socket CPU  
|                      32  || p100 || 24 || 257000M ||  4 || P100-16gb || 60 || 16 || tous les GPU sont associés au même socket CPU, connectés par PCIe
|-
|-
|                      192 || v100l ||32 || 192000M ||  4 || V100-SXM2 || 32 || deux GPU par socket CPU; tous les GPU sont connectés via NVLink
|                      192 || v100l || 32 || 192000M ||  4 || V100-32gb || 70 || 32 || deux GPU par socket CPU; tous les GPU sont connectés via NVLink et SXM2
|-
|-
| rowspan=5|Graham  || 160 || p100  ||32 || 127518M ||  2 || P100-PCIE || 12 || un GPU par socket CPU
| rowspan=5|Graham  || 160 || p100  || 32 || 127518M ||  2 || P100-12gb || 60 || 12 || un GPU par socket CPU, connecté par PCIe
|-
|-
|                      7  || v100  ||28 || 183105M ||  8 || V100-PCIE || 16 || voir  [[Graham/fr#Nœuds_GPU_Volta|Nœuds GPU Volta]]
|                      7  || v100  || 28 || 183105M ||  8 || V100(**) || 70 || 16 || voir  [[Graham/fr#Nœuds_GPU_Volta|Nœuds GPU Volta]]
|-
|-
|                      2  || v100l || 28 || 183105M ||  8 || V100-PCIE|| 32 ||  voir  [[Graham/fr#Nœuds_GPU_Volta|Nœuds GPU Volta]]-
|                      2  || v100(**) || 28 || 183105M ||  8 || V100(***) || 70 || 32 ||  voir  [[Graham/fr#Nœuds_GPU_Volta|Nœuds GPU Volta]]-
|-
|-
|                      30  || t4    ||44 || 192000M ||  4 || Tesla T4 || 16 || deux GPU par socket CPU
|                      30  || t4    || 44 || 192000M ||  4 || T4-16gb  || 75 || 16 || deux GPU par socket CPU
|-
|-
|                      6  || t4    ||16 || 192000M ||  4 || Tesla T4 || 16 || &nbsp
|                      6  || t4    || 16 || 192000M ||  4 || T4-16gb  || 75 || 16 || &nbsp
|-
|-
| rowspan=2|Hélios || 15 || k20  ||20 || 110000M || 8 || K20      || 5 || quatre GPU par socket CPU
| Mist              || 54 || n.a. || 32 ||   256GiB  || 4 || V100-32gb || 70 || 32 || voir [https://docs.scinet.utoronto.ca/index.php/Mist#Specifications Mist specifications]
|-  
|-  
|                     6  || k80  ||24 || 257000M || 16 || K80      || 12 || huit GPU par socket CPU
| Narval            || 159 || a100 || 48 || 510000M ||  4 || A100-40gb || 80 || 40 || deux GPU par socket CPU; tous les GPU sont connectés via NVLink
|-
| Mist              || 54 || n.a. || 32 ||   256GiB ||  4 || V100-SXM2 || 32 || voir [https://docs.scinet.utoronto.ca/index.php/Mist#Specifications Mist specifications]
|-
|-
| Arbutus          ||  || n.a. | 80 ||  384GiB ||  4 || V100      || 32 || infonuagique (ne peuvent être utilisés via Slurm)
| Arbutus          ||  colspan=8 | L'ordonnanceur Slurm ne gère pas les ressources infonuagiques. Voir [[Cloud resources/fr|Ressources infonuagiques]] pour l'information sur le matériel disponible.
|}
|}

Latest revision as of 14:20, 19 July 2024

Information about message (contribute)
This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
Message definition (Using GPUs with Slurm)
{| class="wikitable"
|-
! rowspan=2|Cluster !! rowspan=2| # of nodes !! rowspan=2|Slurm type<br>specifier !! colspan=3|Per node !! rowspan=2|GPU model  !! rowspan=2|Compute<br>Capability(*) !! rowspan=2|GPU mem<br>(GiB) !! rowspan=2|Notes
|-
!                              CPU cores !! CPU memory !! GPUs 
|-
| Béluga            || 172 ||  v100 ||  40 || 191000M ||  4 || V100-16gb || 70 || 16 || All GPUs associated with the same CPU socket, connected via NVLink and SXM2
|-
| rowspan=3|Cedar  || 114 ||  p100 ||  24 || 128000M ||  4 || P100-12gb || 60 || 12 || Two GPUs per CPU socket, connected via PCIe
|-
|                      32  || p100l ||  24 || 257000M ||  4 || P100-16gb || 60 || 16 || All GPUs associated with the same CPU socket, connected via PCIe
|-
|                      192 || v100l ||  32 || 192000M ||  4 || V100-32gb || 70 || 32 || Two GPUs per CPU socket; all GPUs connected via NVLink and SXM2
|-
| rowspan=5|Graham  || 160 ||  p100 ||  32 || 127518M ||  2 || P100-12gb || 60 || 12 || One GPU per CPU socket, connected via PCIe
|-
|                      7  || v100(**)    ||  28 || 183105M ||  8 || V100-16gb || 70 || 16 || See [[Graham#Volta_GPU_nodes_on_Graham|Graham: Volta GPU nodes]]
|-
|                      2  || v100(***) ||  28 || 183105M ||  8 || V100-32gb || 70 || 32 || See [[Graham#Volta_GPU_nodes_on_Graham|Graham: Volta GPU nodes]]
|-
|                      30  ||  t4  ||  44 || 192000M ||  4 || T4-16gb  || 75 || 16 || Two GPUs per CPU socket
|-
|                      6  ||  t4  ||  16 || 192000M ||  4 || T4-16gb  || 75 || 16 || &nbsp;
|-
| Mist              || 54  || (none) || 32 ||  256GiB ||  4 || V100-32gb || 70 || 32 || See [https://docs.scinet.utoronto.ca/index.php/Mist#Specifications Mist specifications]
|- 
| Narval            || 159 || a100  || 48 || 510000M ||  4 || A100-40gb || 80 || 40 || Two GPUs per CPU socket; all GPUs connected via NVLink 
|-
| Arbutus          ||  colspan=8 | Cloud resources are not schedulable via Slurm. See [[Cloud resources]] for details of available hardware.
|}
Grappe Qté de nœuds Type de GPU Par nœud Modèle de GPU Attribut
compute
capability(*)
Mémoire GPU (GiB) Remarques
Cœurs CPU Mémoire CPU GPU
Béluga 172 v100 40 191000M 4 V100-16gb 70 16 tous les GPU sont associés au même socket CPU et connectés via NVLink et SXM2
Cedar 114 p100 24 128000M 4 P100-12gb 60 12 deux GPU par socket CPU, connectés par PCIe
32 p100 24 257000M 4 P100-16gb 60 16 tous les GPU sont associés au même socket CPU, connectés par PCIe
192 v100l 32 192000M 4 V100-32gb 70 32 deux GPU par socket CPU; tous les GPU sont connectés via NVLink et SXM2
Graham 160 p100 32 127518M 2 P100-12gb 60 12 un GPU par socket CPU, connecté par PCIe
7 v100 28 183105M 8 V100(**) 70 16 voir Nœuds GPU Volta
2 v100(**) 28 183105M 8 V100(***) 70 32 voir Nœuds GPU Volta-
30 t4 44 192000M 4 T4-16gb 75 16 deux GPU par socket CPU
6 t4 16 192000M 4 T4-16gb 75 16 &nbsp
Mist 54 n.a. 32 256GiB 4 V100-32gb 70 32 voir Mist specifications
Narval 159 a100 48 510000M 4 A100-40gb 80 40 deux GPU par socket CPU; tous les GPU sont connectés via NVLink
Arbutus L'ordonnanceur Slurm ne gère pas les ressources infonuagiques. Voir Ressources infonuagiques pour l'information sur le matériel disponible.