CUDA tutorial/fr: Difference between revisions

Jump to navigation Jump to search
no edit summary
(Created page with "thumbnail|Figure 1. Les fils sont groupés en blocs qui forment une grille. Pour obtenir un parallélisme intensif, on doit utiliser le plus...")
No edit summary
Line 57: Line 57:


[[File:Cuda-threads-blocks.png|thumbnail|Figure 1. Les fils sont groupés en blocs qui forment une grille. ]]
[[File:Cuda-threads-blocks.png|thumbnail|Figure 1. Les fils sont groupés en blocs qui forment une grille. ]]
Pour obtenir un parallélisme intensif, on doit utiliser le plus le fils possible; puisqu'un ''kernel'' CUDA comprend un très grand nombre de fils, il faut bien les organiser. Avec CUDA, les fils sont groupés en blocs de fils, eux-mêmes formant une grille. Diviser les fils fait en sorte que
Pour obtenir un parallélisme intensif, on doit utiliser le plus le fils possible; puisqu'un ''kernel'' CUDA comprend un très grand nombre de fils, il faut bien les organiser. Avec CUDA, les fils sont groupés en blocs de fils, eux-mêmes formant une grille. Diviser les fils fait en sorte que :


*les fils groupés coopèrent par la mémoire partagée,
*les fils groupés coopèrent par la mémoire partagée,
Line 63: Line 63:




* threads within a block cooperate via the shared memory
* threads in different blocks can not cooperate
In this model the threads within a block work on the same set of instructions (but perhaps with different data sets) and exchange data between each other via shared memory. Threads in other blocks do the same thing (see the figure).  
In this model the threads within a block work on the same set of instructions (but perhaps with different data sets) and exchange data between each other via shared memory. Threads in other blocks do the same thing (see the figure).  
[[File:Cuda_threads.png|thumbnail|Threads within a block intercommunicate via shared memory. ]]
[[File:Cuda_threads.png|thumbnail|Threads within a block intercommunicate via shared memory. ]]
rsnt_translations
56,430

edits

Navigation menu