rsnt_translations
56,430
edits
No edit summary |
No edit summary |
||
Line 46: | Line 46: | ||
#Retour des données à la mémoire hôte. | #Retour des données à la mémoire hôte. | ||
=Modèle d'exécution= | =Modèle d'exécution= | ||
Le | Le code CUDA simple exécuté dans un GPU s'appelle '''kernel''' (noyau). Il faut se demander | ||
* comment faire pour exécuter un kernel sur un groupe de multiprocesseurs en continu? | |||
* comment faire pour que ce kernel soit exécuté de façon parallèle intensive? | |||
Voici la recette en réponse à ces questions : | |||
* chaque cœur GPU (processeur en continu) exécute un fil (''thread'') séquentiel, ce qui est le plus petit ensemble discret d'instructions géré par l'ordonnanceur du système d'exploitation | |||
* tous les cœurs GPU exécutent le kernel de manière simultanée selon le modèle SIMT (''single instruction, multiple threads'') | |||
= Block-threading model = | = Block-threading model = |