rsnt_translations
56,573
edits
(Created page with "* Si vos applications font surtout des opérations FP32, le modèle A100-40gb devrait être deux fois plus rapide que le P100-12gb, mais son utilisation des ressources sera quatre fois plus grande. En conséquence, pour le même nombre d'UGR, le modèle P100-12gb devrait vous permettre d'exécuter deux fois plus de calcul. * Si vos applications font surtout des opérations FP16 (ce qui est le cas en intelligence artificielle et avec les opérations à précision mixte e...") |
(Created page with "Pour plus de commodité, les pondérations sont basées sur des pourcentages augmentés d'un facteur de 4 <i>unités GPU de référence</i> (UGR). Ensuite, en utilisant le <b>A100-40gb</b> comme modèle de référence, nous obtenons les scores suivants pour chaque modèle :") |
||
Line 48: | Line 48: | ||
|} | |} | ||
Pour plus de commodité, les pondérations sont basées sur des pourcentages augmentés d'un facteur de 4 <i>unités GPU de référence</i> (UGR). Ensuite, en utilisant le <b>A100-40gb</b> comme modèle de référence, nous obtenons les scores suivants pour chaque modèle : | |||
{| class="wikitable" style="margin: auto; text-align: center;" | {| class="wikitable" style="margin: auto; text-align: center;" |