rsnt_translations
56,573
edits
No edit summary |
(Created page with "==À compter du concours de 2024==") |
||
Line 120: | Line 120: | ||
* Si vos applications font surtout des opérations FP16 (ce qui est le cas en intelligence artificielle et avec les opérations à précision mixte et [https://en.wikipedia.org/wiki/Bfloat16_floating-point_format autres formats à virgule flottante]), l'utilisation d'un A100-40gb sera évalué/calculé comme utilisant quatre fois les ressources d'un P100-12gb, mais pourra faire ~30 fois plus de calcul dans le même espace de temps, ce qui vous permettrait de faire ~7.5 fois plus de calcul. | * Si vos applications font surtout des opérations FP16 (ce qui est le cas en intelligence artificielle et avec les opérations à précision mixte et [https://en.wikipedia.org/wiki/Bfloat16_floating-point_format autres formats à virgule flottante]), l'utilisation d'un A100-40gb sera évalué/calculé comme utilisant quatre fois les ressources d'un P100-12gb, mais pourra faire ~30 fois plus de calcul dans le même espace de temps, ce qui vous permettrait de faire ~7.5 fois plus de calcul. | ||
== | ==À compter du concours de 2024== | ||
* Pour le concours d'allocation de ressources pour 2024, votre demande de GPU doit indiquer le modèle de GPU | * Pour le concours d'allocation de ressources pour 2024, votre demande de GPU doit indiquer le modèle de GPU |