Translations:PyTorch/306/fr
Jump to navigation
Jump to search
Avec notre wheel PyTorch 1.10 torch-1.10.0+computecanada
, le code pour travailler avec plusieurs GPU et qui utilise
DistributedDataParallel pourrait échouer de façon imprévisible si le backend est défini comme étant 'nccl'
ou 'gloo'
. Nous vous recommandons d'utiliser la version la plus récente de PyTorch plutôt que la version 1.10 sur toutes les grappes d'usage général.