rsnt_translations
56,430
edits
No edit summary |
(Created page with "= Types de mémoire GPU = Plusieurs types de mémoire sont disponibles aux opérations CUDA : * mémoire globale ** non sur la puce (''off-chip''), efficace pour opérations I...") |
||
Line 71: | Line 71: | ||
Un processeur en continu (SM) exécute habituellement un bloc de fils à la fois. Le code est exécuté en groupes de 32 fils (appelés ''warps''). Un ordonnanceur physique est libre d'assigner des blocs à tout SM en tout temps. De plus, quand un SM reçoit le bloc qui lui est assigné, ceci ne signifie pas que ce bloc en particulier sera exécuté sans arrêt. En fait, l'ordonnanceur peut retarder/suspendre l'exécution de tels blocs selon certaines conditions, par exemple si les données ne sont plus disponibles (en effet, la lecture de données à partir de la mémoire globale du GPU exige beaucoup de temps). Lorsque ceci se produit, l'ordonnanceur exécute un autre bloc de fils qui est prêt à être exécuté. Il s'agit en quelque sorte d'ordonnancement ''zero-overhead'' favorisant un flux d'exécution plus régulier afin que les SMs ne demeurent pas inactifs. | Un processeur en continu (SM) exécute habituellement un bloc de fils à la fois. Le code est exécuté en groupes de 32 fils (appelés ''warps''). Un ordonnanceur physique est libre d'assigner des blocs à tout SM en tout temps. De plus, quand un SM reçoit le bloc qui lui est assigné, ceci ne signifie pas que ce bloc en particulier sera exécuté sans arrêt. En fait, l'ordonnanceur peut retarder/suspendre l'exécution de tels blocs selon certaines conditions, par exemple si les données ne sont plus disponibles (en effet, la lecture de données à partir de la mémoire globale du GPU exige beaucoup de temps). Lorsque ceci se produit, l'ordonnanceur exécute un autre bloc de fils qui est prêt à être exécuté. Il s'agit en quelque sorte d'ordonnancement ''zero-overhead'' favorisant un flux d'exécution plus régulier afin que les SMs ne demeurent pas inactifs. | ||
= Types | = Types de mémoire GPU = | ||
Plusieurs types de mémoire sont disponibles aux opérations CUDA : | |||
* | * mémoire globale | ||
** off-chip, | ** non sur la puce (''off-chip''), efficace pour opérations I/O, mais relativement lente | ||
* | * mémoire partagée | ||
** on-chip, | ** sur la puce (''on-chip''), permet une bonne collaboration des fils, très rapide | ||
* | * registres et mémoire locale | ||
** | ** espace de travail des fils, très rapide | ||
* | * mémoire constante | ||
= A few basic CUDA operations = | = A few basic CUDA operations = |