Translations:Using GPUs with Slurm/2/fr: Difference between revisions
Jump to navigation
Jump to search
No edit summary |
No edit summary |
||
Line 23: | Line 23: | ||
| 6 || t4 ||16 || 192000M || 4 || Tesla T4 || 75 || 16 ||   | | 6 || t4 ||16 || 192000M || 4 || Tesla T4 || 75 || 16 ||   | ||
|- | |- | ||
| Mist || 54 || n.a. || 32 || 256GiB || 4 || V100-SXM2 || 70 || 32 || voir [https://docs.scinet.utoronto.ca/index.php/Mist#Specifications Mist specifications] | | Mist || 54 || n.a. || 32 || 256GiB || 4 || V100-SXM2 || 70 || 32 || voir [https://docs.scinet.utoronto.ca/index.php/Mist#Specifications Mist specifications] | ||
|- | |- |
Revision as of 18:49, 30 September 2022
Grappe | Qté de nœuds | Type de GPU | Par nœud | Modèle de GPU | Attribut compute capability(*) |
Mémoire GPU (GiB) | Remarques | ||
---|---|---|---|---|---|---|---|---|---|
Cœurs CPU | Mémoire CPU | GPU | |||||||
Béluga | 172 | v100 | 40 | 191000M | 4 | V100-SXM2 | 70 | 16 | tous les GPU sont associés au même socket CPU et connectés via NVLink |
Cedar | 114 | p100 | 24 | 128000M | 4 | P100-PCIE | 60 | 12 | deux GPU par socket CPU |
32 | p100 | 24 | 257000M | 4 | P100-PCIE | 60 | 16 | tous les GPU sont associés au même socket CPU | |
192 | v100l | 32 | 192000M | 4 | V100-SXM2 | 70 | 32 | deux GPU par socket CPU; tous les GPU sont connectés via NVLink | |
Graham | 160 | p100 | 32 | 127518M | 2 | P100-PCIE | 60 | 12 | un GPU par socket CPU |
7 | v100 | 28 | 183105M | 8 | V100-PCIE | 70 | 16 | voir Nœuds GPU Volta | |
2 | v100(**) | 28 | 183105M | 8 | V100-PCIE | 70 | 32 | voir Nœuds GPU Volta- | |
30 | t4 | 44 | 192000M | 4 | Tesla T4 | 75 | 16 | deux GPU par socket CPU | |
6 | t4 | 16 | 192000M | 4 | Tesla T4 | 75 | 16 |   | |
Mist | 54 | n.a. | 32 | 256GiB | 4 | V100-SXM2 | 70 | 32 | voir Mist specifications |
Narval | 159 | a100 | 48 | 510000M | 4 | A100 | 80 | 40 | deux GPU par socket CPU; tous les GPU sont connectés via NVLink |
Arbutus | L'ordonnanceur Slurm ne gère pas les ressources infonuagiques. Voir Ressources infonuagiques pour l'information sur le matériel disponible. |