Using GPUs with Slurm/fr: Difference between revisions

Jump to navigation Jump to search
no edit summary
(Updating to match new version of source page)
No edit summary
Line 123: Line 123:
===Regroupement de tâches pour un seul GPU===
===Regroupement de tâches pour un seul GPU===


<div class="mw-translate-fuzzy">
Pour exécuter pendant '''plus de 24 heures''' quatre programmes qui utilisent un seul GPU ou deux programmes qui utilisent deux GPUs, nous recommandons [[GNU Parallel/fr|GNU Parallel]]. Voici un exemple simple&nbsp;:
Pour exécuter pendant '''plus de 24 heures''' quatre programmes qui utilisent un seul GPU ou deux programmes qui utilisent deux GPUs, nous recommandons [https://www.gnu.org/software/parallel/ GNU Parallel]. Voici un exemple simple&nbsp;:
<pre>
<pre>
cat params.input | parallel -j4 'CUDA_VISIBLE_DEVICES=$(({%} - 1)) python {} &> {#}.out'
cat params.input | parallel -j4 'CUDA_VISIBLE_DEVICES=$(({%} - 1)) python {} &> {#}.out'
</pre>
</pre>
L'identifiant du GPU est calculé en soustrayant 1 de l'identifiant de la fente (''slot''), représenté par {%}. L'identifiant de la tâche est représenté par {#}, avec des valeurs partant de 1.
L'identifiant du GPU est calculé en soustrayant 1 de l'identifiant de la fente (''slot''), représenté par {%}. L'identifiant de la tâche est représenté par {#}, avec des valeurs partant de 1.
</div>


<div class="mw-translate-fuzzy">
<div class="mw-translate-fuzzy">
rsnt_translations
56,437

edits

Navigation menu