rsnt_translations
56,430
edits
(Created page with "thumbnail|Figure 1. Les fils sont groupés en blocs qui forment une grille. Pour obtenir un parallélisme intensif, on doit utiliser le plus...") |
No edit summary |
||
Line 57: | Line 57: | ||
[[File:Cuda-threads-blocks.png|thumbnail|Figure 1. Les fils sont groupés en blocs qui forment une grille. ]] | [[File:Cuda-threads-blocks.png|thumbnail|Figure 1. Les fils sont groupés en blocs qui forment une grille. ]] | ||
Pour obtenir un parallélisme intensif, on doit utiliser le plus le fils possible; puisqu'un ''kernel'' CUDA comprend un très grand nombre de fils, il faut bien les organiser. Avec CUDA, les fils sont groupés en blocs de fils, eux-mêmes formant une grille. Diviser les fils fait en sorte que | Pour obtenir un parallélisme intensif, on doit utiliser le plus le fils possible; puisqu'un ''kernel'' CUDA comprend un très grand nombre de fils, il faut bien les organiser. Avec CUDA, les fils sont groupés en blocs de fils, eux-mêmes formant une grille. Diviser les fils fait en sorte que : | ||
*les fils groupés coopèrent par la mémoire partagée, | *les fils groupés coopèrent par la mémoire partagée, | ||
Line 63: | Line 63: | ||
In this model the threads within a block work on the same set of instructions (but perhaps with different data sets) and exchange data between each other via shared memory. Threads in other blocks do the same thing (see the figure). | In this model the threads within a block work on the same set of instructions (but perhaps with different data sets) and exchange data between each other via shared memory. Threads in other blocks do the same thing (see the figure). | ||
[[File:Cuda_threads.png|thumbnail|Threads within a block intercommunicate via shared memory. ]] | [[File:Cuda_threads.png|thumbnail|Threads within a block intercommunicate via shared memory. ]] |