CUDA tutorial/fr: Difference between revisions

no edit summary
No edit summary
No edit summary
Line 46: Line 46:
#Retour des données à la mémoire hôte.
#Retour des données à la mémoire hôte.


<div class="mw-translate-fuzzy">
=Modèle d'exécution=
=Modèle d'exécution=
Le modèle CUDA est un modèle hétérogène qui utilise à la fois le CPU et le GPU.
Le code CUDA simple exécuté dans un GPU s'appelle '''kernel''' (noyau). Il faut se demander
Le code CUDA peut gérer les deux types de mémoires, la mémoire principale du CPU et la mémoire du composant GPU le code exécute aussi les fonctions du GPU appelées noyaux (''kernels''). Ces fonctions  sont exécutées en parallèle par plusieurs fils GPU. Le processus comporte cinq étapes :
* comment faire pour exécuter un kernel sur un groupe de multiprocesseurs en continu?
# déclaration et allocation de la mémoire principale et de la mémoire du composant
* comment faire pour que ce kernel soit exécuté de façon parallèle intensive?
# initialisation de la mémoire principale
Voici la recette en réponse à ces questions :
# transfert des données de la mémoire principale à la mémoire du composant
* chaque cœur GPU (processeur en continu) exécute un fil (''thread'') séquentiel, ce qui est le plus petit ensemble discret d'instructions géré par l'ordonnanceur du système d'exploitation
# exécution des fonctions GPU (noyaux)  
* tous les cœurs GPU exécutent le kernel de manière simultanée selon le modèle SIMT (''single instruction, multiple threads'')
# retour des données à la mémoire principale
</div>


= Block-threading model =
= Block-threading model =
rsnt_translations
56,430

edits