rsnt_translations
56,573
edits
No edit summary |
No edit summary |
||
Line 117: | Line 117: | ||
Les scores relatifs du précédent tableau devraient vous aider à sélectionner les modèles les plus convenables. Les exemples suivants pr | Les scores relatifs du précédent tableau devraient vous aider à sélectionner les modèles les plus convenables. Les exemples suivants pr | ||
* Si vos applications font surtout des opérations FP32, le modèle A100-40gb devrait être deux fois plus rapide que le P100-12gb, mais | * Si vos applications font surtout des opérations FP32, le modèle A100-40gb devrait être deux fois plus rapide que le P100-12gb, mais l'utilisation des ressources sera considérée comme étant quatre fois plus grande. En conséquence, pour le même nombre d'UGR, le modèle P100-12gb devrait vous permettre d'exécuter deux fois plus de calculs. | ||
* Si vos applications font surtout des opérations FP16 (ce qui est le cas en intelligence artificielle et avec les opérations à précision mixte et [https://en.wikipedia.org/wiki/Bfloat16_floating-point_format autres formats à virgule flottante]), l'utilisation d'un A100-40gb sera évalué/calculé comme utilisant quatre fois les ressources d'un P100-12gb, mais pourra faire ~30 fois plus de calcul dans le même espace de temps, ce qui vous permettrait de faire ~7.5 fois plus de calcul. | * Si vos applications font surtout des opérations FP16 (ce qui est le cas en intelligence artificielle et avec les opérations à précision mixte et [https://en.wikipedia.org/wiki/Bfloat16_floating-point_format autres formats à virgule flottante]), l'utilisation d'un A100-40gb sera évalué/calculé comme utilisant quatre fois les ressources d'un P100-12gb, mais pourra faire ~30 fois plus de calcul dans le même espace de temps, ce qui vous permettrait de faire ~7.5 fois plus de calcul. | ||