Using GPUs with Slurm/fr: Difference between revisions

Updating to match new version of source page
(Created page with "Pour demander un K80 :")
(Updating to match new version of source page)
Line 6: Line 6:
Le tableau suivant décrit les nœuds avec GPU présentement disponibles avec [[Béluga]], [[Cedar/fr|Cedar]], [[Graham/fr|Graham]] et [[Hélios]].
Le tableau suivant décrit les nœuds avec GPU présentement disponibles avec [[Béluga]], [[Cedar/fr|Cedar]], [[Graham/fr|Graham]] et [[Hélios]].


<div class="mw-translate-fuzzy">
{| class="wikitable"
{| class="wikitable"
|-
|-
Line 26: Line 27:
| 6 || K80, Hélios  || 24 || 257000M || 16 || NVIDIA K80-12Go || huit GPU par socket CPU
| 6 || K80, Hélios  || 24 || 257000M || 16 || NVIDIA K80-12Go || huit GPU par socket CPU
|}
|}
</div>


== Comment indiquer le type de GPU à utiliser ==
== Comment indiquer le type de GPU à utiliser ==
Line 33: Line 35:
Pour demander un P100 de 12G :
Pour demander un P100 de 12G :


   #SBATCH --gres=gpu:gpu:1
   <div class="mw-translate-fuzzy">
#SBATCH --gres=gpu:gpu:1
</div>


Pour demander un P100 de 16G :  
Pour demander un P100 de 16G :  


   #SBATCH --gres=gpu:lgpu:1
   <div class="mw-translate-fuzzy">
#SBATCH --gres=gpu:lgpu:1
</div>


<div class="mw-translate-fuzzy">
Par défaut, toutes les tâches sur GPU exigeant <= 125Go seront exécutées sur des P100 de 12Go.
Par défaut, toutes les tâches sur GPU exigeant <= 125Go seront exécutées sur des P100 de 12Go.
</div>
  #SBATCH --gres=gpu:v100l:1
Unless specified, all GPU jobs requesting <= 125G of memory will run on 12G P100s


=== Graham ===
=== Graham ===
Line 137: Line 149:
}}
}}


<div class="mw-translate-fuzzy">
=== Ordonnancement d'un nœud GPU pour Cedar ===
=== Ordonnancement d'un nœud GPU pour Cedar ===
{{File
{{File
Line 152: Line 165:
nvidia-smi
nvidia-smi
}}
}}
</div>


<div class="mw-translate-fuzzy">
=== Ordonnancement d'un nœud ''GPU large'' pour Cedar ===
=== Ordonnancement d'un nœud ''GPU large'' pour Cedar ===
</div>


<div class="mw-translate-fuzzy">
Sur [[Cedar/fr|Cedar]] se trouvent des nœuds de type ''GPU large'' qui ont chacun quatre cartes Tesla P100 16Go, alors que les autres nœuds sont de 12Go.
Sur [[Cedar/fr|Cedar]] se trouvent des nœuds de type ''GPU large'' qui ont chacun quatre cartes Tesla P100 16Go, alors que les autres nœuds sont de 12Go.
Les nœuds de type ''GPU large'' utilisent le même connecteur PCI, ce qui fait que la latence dans les communications entre GPU est plus faible; cependant, la bande passante entre CPU et GPU est plus basse que dans le cas des nœuds GPU réguliers. De plus, la mémoire vive des nœuds est de 256Go plutôt que de 128Go.
Les nœuds de type ''GPU large'' utilisent le même connecteur PCI, ce qui fait que la latence dans les communications entre GPU est plus faible; cependant, la bande passante entre CPU et GPU est plus basse que dans le cas des nœuds GPU réguliers. De plus, la mémoire vive des nœuds est de 256Go plutôt que de 128Go.
Pour utiliser ces nœuds, il faut demander des nœuds entiers et indiquer <code>lgpu</code>. Le temps d'exécution maximal pour ces tâches est passé de 24 haures à 28 jours.
Pour utiliser ces nœuds, il faut demander des nœuds entiers et indiquer <code>lgpu</code>. Le temps d'exécution maximal pour ces tâches est passé de 24 haures à 28 jours.
</div>


<div class="mw-translate-fuzzy">
{{File
{{File
   |name=large_gpu_job.sh
   |name=large_gpu_job.sh
Line 174: Line 193:
nvidia-smi
nvidia-smi
}}
}}
</div>


===Regroupement de tâches pour un seul GPU===
===Regroupement de tâches pour un seul GPU===
38,892

edits