Translations:PyTorch/306/fr: Difference between revisions
(Created page with "Avec notre wheel PyTorch 1.10 <code>torch-1.10.0+computecanada</code>, le code pour travailler avec plusieurs GPU et qui utilise PyTorch/fr#DistributedDataParallel|Distribu...") |
No edit summary |
||
Line 1: | Line 1: | ||
Avec notre wheel PyTorch 1.10 <code>torch-1.10.0+computecanada</code>, le code pour travailler avec plusieurs GPU et qui utilise | Avec notre wheel PyTorch 1.10 <code>torch-1.10.0+computecanada</code>, le code pour travailler avec plusieurs GPU et qui utilise | ||
[[PyTorch/fr#DistributedDataParallel|DistributedDataParallel]] pourrait échouer de façon imprévisible si le backend est défini comme étant <code>'nccl'</code> ou <code>'gloo'</code>. Pendant que nous travaillons à stabiliser ce wheel, nous vous recommandons d’utiliser des versions moins récentes de PyTorch (1.9.x ou moins) sur toutes les grappes d’usage général, sauf Narval. Pour Narval nous vous recommandons d’installer le wheel à partir d’internet avec pip install torch==1.10.0+cu113 -f https://download.pytorch.org/whl/cu113/torch_stable.html jusqu’à nouvel ordre. Prenez note que le wheel en amont n’est pas optimisé pour Narval. Sachez aussi que le fait d’utiliser ce wheel pourrait causer des problèmes pour d’autres paquets de l’écosystème Pytorch, par exemple | [[PyTorch/fr#DistributedDataParallel|DistributedDataParallel]] pourrait échouer de façon imprévisible si le backend est défini comme étant <code>'nccl'</code> ou <code>'gloo'</code>. Pendant que nous travaillons à stabiliser ce wheel, nous vous recommandons d’utiliser des versions moins récentes de PyTorch (1.9.x ou moins) sur toutes les grappes d’usage général, sauf Narval. Pour Narval nous vous recommandons d’installer le wheel à partir d’internet avec <code>pip install torch==1.10.0+cu113 -f https://download.pytorch.org/whl/cu113/torch_stable.html</code> jusqu’à nouvel ordre. Prenez note que le wheel en amont '''n’est pas optimisé''' pour Narval. Sachez aussi que le fait d’utiliser ce wheel pourrait causer des problèmes pour d’autres paquets de l’écosystème Pytorch, par exemple <code>torchvision</code>. |
Revision as of 20:59, 3 March 2022
Avec notre wheel PyTorch 1.10 torch-1.10.0+computecanada
, le code pour travailler avec plusieurs GPU et qui utilise
DistributedDataParallel pourrait échouer de façon imprévisible si le backend est défini comme étant 'nccl'
ou 'gloo'
. Pendant que nous travaillons à stabiliser ce wheel, nous vous recommandons d’utiliser des versions moins récentes de PyTorch (1.9.x ou moins) sur toutes les grappes d’usage général, sauf Narval. Pour Narval nous vous recommandons d’installer le wheel à partir d’internet avec pip install torch==1.10.0+cu113 -f https://download.pytorch.org/whl/cu113/torch_stable.html
jusqu’à nouvel ordre. Prenez note que le wheel en amont n’est pas optimisé pour Narval. Sachez aussi que le fait d’utiliser ce wheel pourrait causer des problèmes pour d’autres paquets de l’écosystème Pytorch, par exemple torchvision
.