Translations:PyTorch/306/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
(Created page with "Avec notre wheel PyTorch 1.10 <code>torch-1.10.0+computecanada</code>, le code pour travailler avec plusieurs GPU et qui utilise PyTorch/fr#DistributedDataParallel|Distribu...")
 
No edit summary
Line 1: Line 1:
Avec notre wheel PyTorch 1.10 <code>torch-1.10.0+computecanada</code>, le code pour travailler avec plusieurs GPU et qui utilise  
Avec notre wheel PyTorch 1.10 <code>torch-1.10.0+computecanada</code>, le code pour travailler avec plusieurs GPU et qui utilise  
[[PyTorch/fr#DistributedDataParallel|DistributedDataParallel]] pourrait échouer de façon imprévisible si le backend est défini comme étant <code>'nccl'</code> ou <code>'gloo'</code>. Pendant que nous travaillons à stabiliser ce wheel, nous vous recommandons d’utiliser des versions moins récentes de PyTorch (1.9.x ou moins) sur toutes les grappes d’usage général, sauf Narval. Pour Narval nous vous recommandons d’installer le wheel à partir d’internet avec  pip install torch==1.10.0+cu113 -f https://download.pytorch.org/whl/cu113/torch_stable.html jusqu’à nouvel ordre. Prenez note que le wheel en amont n’est pas optimisé pour Narval. Sachez aussi que le fait d’utiliser ce wheel pourrait causer des problèmes pour d’autres paquets de l’écosystème Pytorch, par exemple torchvision.
[[PyTorch/fr#DistributedDataParallel|DistributedDataParallel]] pourrait échouer de façon imprévisible si le backend est défini comme étant <code>'nccl'</code> ou <code>'gloo'</code>. Pendant que nous travaillons à stabiliser ce wheel, nous vous recommandons d’utiliser des versions moins récentes de PyTorch (1.9.x ou moins) sur toutes les grappes d’usage général, sauf Narval. Pour Narval nous vous recommandons d’installer le wheel à partir d’internet avec  <code>pip install torch==1.10.0+cu113 -f https://download.pytorch.org/whl/cu113/torch_stable.html</code> jusqu’à nouvel ordre. Prenez note que le wheel en amont '''n’est pas optimisé''' pour Narval. Sachez aussi que le fait d’utiliser ce wheel pourrait causer des problèmes pour d’autres paquets de l’écosystème Pytorch, par exemple <code>torchvision</code>.

Revision as of 20:59, 3 March 2022

Information about message (contribute)
This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
Message definition (PyTorch)
There is a known issue with our PyTorch 1.10 wheel <code>torch-1.10.0+computecanada</code>. Multi-GPU code that uses [[PyTorch#Using_DistributedDataParallel|DistributedDataParallel]] running with this PyTorch version may fail unpredictably if the backend is set to <code>'nccl'</code> or <code>'gloo'</code>. We recommend using our latest PyTorch build instead of version 1.10 on all GP clusters.

Avec notre wheel PyTorch 1.10 torch-1.10.0+computecanada, le code pour travailler avec plusieurs GPU et qui utilise DistributedDataParallel pourrait échouer de façon imprévisible si le backend est défini comme étant 'nccl' ou 'gloo'. Pendant que nous travaillons à stabiliser ce wheel, nous vous recommandons d’utiliser des versions moins récentes de PyTorch (1.9.x ou moins) sur toutes les grappes d’usage général, sauf Narval. Pour Narval nous vous recommandons d’installer le wheel à partir d’internet avec pip install torch==1.10.0+cu113 -f https://download.pytorch.org/whl/cu113/torch_stable.html jusqu’à nouvel ordre. Prenez note que le wheel en amont n’est pas optimisé pour Narval. Sachez aussi que le fait d’utiliser ce wheel pourrait causer des problèmes pour d’autres paquets de l’écosystème Pytorch, par exemple torchvision.