38,939
edits
No edit summary |
(Updating to match new version of source page) |
||
Line 4: | Line 4: | ||
<i>Page enfant de [[Job scheduling policies/fr|Politique d'ordonnancement des tâches]]</i> | <i>Page enfant de [[Job scheduling policies/fr|Politique d'ordonnancement des tâches]]</i> | ||
<div class="mw-translate-fuzzy"> | |||
= Allocation de ressources = | = Allocation de ressources = | ||
</div> | |||
Une <i>allocation</i> est l’attribution d’une quantité de ressources à un groupe de recherche pour une période donnée, habituellement un an. Nous gérons des ressources de stockage et des ressources de calcul à l’intention des chercheurs canadiens. | Une <i>allocation</i> est l’attribution d’une quantité de ressources à un groupe de recherche pour une période donnée, habituellement un an. Nous gérons des ressources de stockage et des ressources de calcul à l’intention des chercheurs canadiens. | ||
Line 14: | Line 16: | ||
Notons qu’une allocation de cœurs-année et de GPU-année en ressources partagées considère la moyenne d’utilisation cible dans le temps; un groupe est donc plus susceptible d’atteindre et même de dépasser ses cibles en utilisant ses ressources de façon régulière sur la période qu’en soumettant des tâches en rafale (''burst'') ou en les reportant à plus tard. | Notons qu’une allocation de cœurs-année et de GPU-année en ressources partagées considère la moyenne d’utilisation cible dans le temps; un groupe est donc plus susceptible d’atteindre et même de dépasser ses cibles en utilisant ses ressources de façon régulière sur la période qu’en soumettant des tâches en rafale (''burst'') ou en les reportant à plus tard. | ||
== | <div class="mw-translate-fuzzy"> | ||
=Ordonnancement par priorité= | |||
</div> | |||
Les ressources de calcul par cœurs-année et par GPU-année reçoivent des tâches qui sont immédiatement prises en charge par l’ordonnanceur. Rappelons qu’une tâche se compose d’une application logicielle et de la liste des ressources pour l’exécuter. L’ordonnanceur est aussi une application logicielle dont le rôle est de calculer la priorité de chaque tâche et de lui attribuer les ressources nécessaires selon leur disponibilité et en accord avec les règles de priorisation. | |||
À l’aide d’algorithmes spécialisés, l’ordonnanceur tient compte des cibles de chaque groupe et compare la consommation récente du groupe à l’utilisation qui lui était allouée. Un des facteurs déterminants est la consommation à l’intérieur de la période. Le facteur qui possède cependant le plus de poids est la consommation (ou la non-consommation) récente, ceci en vue d’offrir une opération plus stable aux groupes dont l’utilisation réelle se rapproche des ressources qui leur étaient allouées. Cette façon de procéder assure une meilleure répartition du parc de ressources pour l’ensemble des groupes et fait en sorte qu’il est théoriquement possible pour tous les groupes d’atteindre leurs cibles. | |||
<div class="mw-translate-fuzzy"> | |||
==Qu’arrive-t-il si mon groupe utilise plus de CPU ou GPU que la quantité qui lui est allouée?== | |||
</div> | |||
<div class="mw-translate-fuzzy"> | |||
Rien de grave ne se produira. Ces allocations sont une quantité cible de CPU ou de GPU que vous pouvez utiliser. Si vous avez des tâches en attente et qu’à ce moment la demande en ressources de calcul est basse, l’ordonnanceur pourrait faire exécuter vos tâches même si vous dépassez la quantité cible de votre allocation. Tout ce qui peut se produire alors serait que les prochaines tâches que vous soumettrez se voient attribuer un plus bas niveau de priorité que celles soumises par des groupes qui n’ont pas encore atteint leur niveau cible d’utilisation. Aucune tâche soumise à l’ordonnanceur n’est refusée en raison d’une surutilisation de ressources et votre utilisation moyenne de ressources sur la période d’allocation devrait se situer proche de la cible qui vous a été allouée. | |||
< | </div> | ||
Il se pourrait qu’au cours d’un mois ou d’une année vous puissiez accomplir plus de travail que votre allocation ne semblerait le permettre, mais ce scénario est peu probable puisque la demande est plus élevée que la quantité de ressources dont nous disposons. | |||
=Reference GPU Units= | |||
{{Note|This is a new unit that will be used from RAC 2024.}} | |||
As you may be aware, the performance of GPUs has dramatically increased in the recent years and is expected to do so again with the upcoming next generation of GPUs. Until RAC 2023, in order to reduce complexity, we have been treating all GPUs as equivalent to each other at allocation time and when considering how many resources groups have consumed. This has raised issues of fairness, both in the allocation process and while running jobs. We cannot continue to treat all GPU types as the same. | |||
To overcome the fairness problem, we have defined a <i>reference GPU unit</i> (or <b>RGU</b>) in order to be able to rank all GPU models in production. Because roughly half of our users use primarily single-precision floating-point operations ([https://en.wikipedia.org/wiki/Single-precision_floating-point_format FP32]), the other half use half-precision floating-point operations ([https://en.wikipedia.org/wiki/Half-precision_floating-point_format FP16]), and a significant portion of all users care about the memory on the GPU itself, we set the following evaluation criteria with their corresponding weight: | |||
{| class="wikitable" style="margin: auto;" | |||
|- | |||
! scope="col"| Evaluation Criteria | |||
! scope="col"| Weight <br> (RGU) | |||
|- | |||
! scope="row"| FP32 score | |||
| 40% * 4 = 1.6 | |||
|- | |||
! scope="row"| FP16 score | |||
| 40% * 4 = 1.6 | |||
|- | |||
! scope="row"| GPU memory score | |||
| 20% * 4 = 0.8 | |||
|} | |||
For convenience, weights are based on percentages up-scaled by a factor of 4 <i>reference GPU units</i> (RGUs). Then, by using the <b>A100-40gb</b> as the reference GPU model, we get the following scores for each model: | |||
{| class="wikitable" style="margin: auto; text-align: center;" | |||
|- | |||
| | |||
! scope="col"| FP32 score | |||
! scope="col"| FP16 score | |||
! scope="col"| Memory score | |||
! scope="col"| Weighted Score | |||
|- | |||
! scope="col"| Weight: | |||
! scope="col"| 1.6 | |||
! scope="col"| 1.6 | |||
! scope="col"| 0.8 | |||
| (RGU) | |||
|- | |||
! scope="row" style="text-decoration: underline;"| Model | |||
|- | |||
! scope="row"| P100-12gb | |||
| 0.48 | |||
| 0.00 | |||
| 0.3 | |||
! 1.0 | |||
|- | |||
! scope="row"| P100-16gb | |||
| 0.48 | |||
| 0.00 | |||
| 0.4 | |||
! 1.1 | |||
|- | |||
! scope="row"| T4-16gb | |||
| 0.42 | |||
| 0.21 | |||
| 0.4 | |||
! 1.3 | |||
|- | |||
! scope="row"| V100-16gb* | |||
| 0.81 | |||
| 0.40 | |||
| 0.4 | |||
! 2.2 | |||
|- | |||
! scope="row"| V100-32gb* | |||
| 0.81 | |||
| 0.40 | |||
| 0.8 | |||
! 2.6 | |||
|- | |||
! scope="row"| A100-40gb | |||
| <b>1.00</b> | |||
| <b>1.00</b> | |||
| <b>1.0</b> | |||
! 4.0 | |||
|- | |||
! scope="row"| A100-80gb* | |||
| 1.00 | |||
| 1.00 | |||
| 2.0 | |||
! 4.8 | |||
|} | |||
(*) On Graham, these GPU models are available through a very few contributed GPU nodes. While all users can use them, they are not allocatable through the RAC process. | |||
As an example, the oldest GPU model in production (P100-12gb) is now worth 1.0 RGU. The next few generations of GPUs will be compared to the A100-40gb using the same formula. | |||
== | ==Choosing GPU models for your project== | ||
The relative scores in the above table should give you a hint on the models to choose. Here is an example with the extremes: | |||
* If your applications are doing primarily FP32 operations, an A100-40gb GPU is expected to be twice as fast as a P100-12gb GPU, but the recorded usage will be 4 times the resources. Consequently, for an equal amount of RGUs, P100-12gb GPUs should allow you to run double the computations. | |||
* If your applications (typically AI-related) are doing primarily FP16 operations (including mixed precision operations or using other [https://en.wikipedia.org/wiki/Bfloat16_floating-point_format floating-point formats]), using an A100-40gb will result in getting evaluated as using 4x the resources of a P100-12gb, but it is capable of computing ~30x the calculations for the same amount of time, which would allow you to complete ~7.5x the computations. | |||
= | ==Starting from RAC 2024== | ||
* During the Resource Allocation Competition 2024 (RAC 2024), any proposal asking for GPUs will require to specify the preferred GPU model for the project. Then, in the CCDB form, the amount of reference GPU units (RGUs) will automatically be calculated from the requested amount of gpu-years per year of project. | |||
** For example, if you select the <i>narval-gpu</i> resource and request 13 gpu-years of the model A100-40gb, the corresponding amount of RGUs would be 13 * 4.0 = 52. The RAC committee would then allocate up to 52 RGUs, depending on the proposal score. In case your allocation must be moved to Cedar, the committee would instead allocate up to 20 gpu-years, because each V100-32gb GPU is worth 2.6 RGUs (and 52 / 2.6 = 20). | |||
* For job scheduling and for usage accounting on CCDB, the use of <i>reference GPU units</i> will take effect on April 1st, 2024, with the implementation of RAC 2024. | |||
<div class="mw-translate-fuzzy"> | |||
=Utilisation des ressources et priorisation des tâches= | =Utilisation des ressources et priorisation des tâches= | ||
</div> | |||
Le principe gouverneur dans notre façon de déterminer la priorité des tâches de calcul se base sur les ressources qu’une tâche rend <b>non disponibles aux autres utilisateurs</b> plutôt que sur les ressources effectivement utilisées. | Le principe gouverneur dans notre façon de déterminer la priorité des tâches de calcul se base sur les ressources qu’une tâche rend <b>non disponibles aux autres utilisateurs</b> plutôt que sur les ressources effectivement utilisées. | ||
Line 70: | Line 145: | ||
Un autre cas fréquent de cœurs non utilisés se pose lorsqu’une tâche exige plus de mémoire que celle demandée pour un cœur. Sur une grappe où chaque cœur serait doté de 4Go de mémoire, une tâche qui demanderait un seul cœur et 8Go de mémoire bloquerait donc 2 cœurs et le deuxième cœur ne serait pas disponible pour les tâches des autres groupes de recherche | Un autre cas fréquent de cœurs non utilisés se pose lorsqu’une tâche exige plus de mémoire que celle demandée pour un cœur. Sur une grappe où chaque cœur serait doté de 4Go de mémoire, une tâche qui demanderait un seul cœur et 8Go de mémoire bloquerait donc 2 cœurs et le deuxième cœur ne serait pas disponible pour les tâches des autres groupes de recherche | ||
<div class="mw-translate-fuzzy"> | |||
= Équivalent-cœur = | = Équivalent-cœur = | ||
</div> | |||
Un équivalent-cœur se compose d’'''un cœur simple et d’une certaine quantité de mémoire'''; pour le nommer, nous utilisons le terme ''bundle''. En plus du cœur, le bundle contient aussi la mémoire considérée comme étant associée à ce cœur. | Un équivalent-cœur se compose d’'''un cœur simple et d’une certaine quantité de mémoire'''; pour le nommer, nous utilisons le terme ''bundle''. En plus du cœur, le bundle contient aussi la mémoire considérée comme étant associée à ce cœur. | ||
Line 92: | Line 169: | ||
*:Dans la figure 3, on demande 2 cœurs et 5Go par cœur pour une mémoire totale de 10Go; la tâche exige 2.5 bundles pour les cœurs. Pour calculer la priorité, l’ordonnanceur évalue la demande à 2.5 équivalents-cœur. | *:Dans la figure 3, on demande 2 cœurs et 5Go par cœur pour une mémoire totale de 10Go; la tâche exige 2.5 bundles pour les cœurs. Pour calculer la priorité, l’ordonnanceur évalue la demande à 2.5 équivalents-cœur. | ||
<div class="mw-translate-fuzzy"> | |||
=Équivalent-GPU= | =Équivalent-GPU= | ||
</div> | |||
<div class="mw-translate-fuzzy"> | |||
Les principes appliqués pour les équivalents-cœur valent aussi pour les GPU et les ressources qui leur sont associées. Une difficulté surgit cependant parce qu’il est important de différencier les cibles allouées pour la recherche sur GPU des cibles allouées pour la recherche qui n’utilise pas les GPU si nous voulons respecter les cibles d’allocation dans chacun des cas. Autrement, un chercheur n’utilisant pas les GPU ne pourrait pas utiliser les cibles qui lui sont allouées pour le parc de ressources GPU, ce qui créerait une surcharge, empêchant les chercheurs qui utilisent les GPU d’atteindre leurs cibles, et vice versa. | Les principes appliqués pour les équivalents-cœur valent aussi pour les GPU et les ressources qui leur sont associées. Une difficulté surgit cependant parce qu’il est important de différencier les cibles allouées pour la recherche sur GPU des cibles allouées pour la recherche qui n’utilise pas les GPU si nous voulons respecter les cibles d’allocation dans chacun des cas. Autrement, un chercheur n’utilisant pas les GPU ne pourrait pas utiliser les cibles qui lui sont allouées pour le parc de ressources GPU, ce qui créerait une surcharge, empêchant les chercheurs qui utilisent les GPU d’atteindre leurs cibles, et vice versa. | ||
</div> | |||
<div class="mw-translate-fuzzy"> | |||
<b>Comptabilisation par équivalent-GPU</b> | <b>Comptabilisation par équivalent-GPU</b> | ||
Examinons le cas où nous avons un bundle de 1 GPU, 6 cœurs et 32Go de mémoire. | Examinons le cas où nous avons un bundle de 1 GPU, 6 cœurs et 32Go de mémoire. | ||
</div> | |||
<div class="mw-translate-fuzzy"> | |||
* Les GPU sont comptabilisés si un groupe utilise plus de GPU que de cœurs OU plus de mémoire que de bundles avec GPU. | * Les GPU sont comptabilisés si un groupe utilise plus de GPU que de cœurs OU plus de mémoire que de bundles avec GPU. | ||
*:Dans la figure 5, on demande 2 GPU , 6 cœurs et 32Go de mémoire. La tâche exige donc 2 équivalents-GPU pour les cœurs, mais un seul bundle pour la mémoire. Pour calculer la priorité, l’ordonnanceur évalue la demande à 2 équivalents-GPU. | *:Dans la figure 5, on demande 2 GPU , 6 cœurs et 32Go de mémoire. La tâche exige donc 2 équivalents-GPU pour les cœurs, mais un seul bundle pour la mémoire. Pour calculer la priorité, l’ordonnanceur évalue la demande à 2 équivalents-GPU. | ||
[[File:Two_GPU_equivalents.png|frame|center|Figure 5 – <i>2 équivalents-GPU</i>]] <br clear=all> | [[File:Two_GPU_equivalents.png|frame|center|Figure 5 – <i>2 équivalents-GPU</i>]] <br clear=all> | ||
</div> | |||
<div class="mw-translate-fuzzy"> | |||
* Les cœurs sont comptabilisés si un groupe utilise plus de cœurs que de GPU OU plus de mémoire par bundle avec GPU. | * Les cœurs sont comptabilisés si un groupe utilise plus de cœurs que de GPU OU plus de mémoire par bundle avec GPU. | ||
*:Dans la figure 6, on demande 1 GPU, 9 cœurs et 32Go; la requête exige donc 1.5 bundle avec GPU pour les cœurs, mais un seul bundle pour les GPU et la mémoire. Pour calculer la priorité, l’ordonnanceur évalue la demande à 1.5 équivalent-GPU. | *:Dans la figure 6, on demande 1 GPU, 9 cœurs et 32Go; la requête exige donc 1.5 bundle avec GPU pour les cœurs, mais un seul bundle pour les GPU et la mémoire. Pour calculer la priorité, l’ordonnanceur évalue la demande à 1.5 équivalent-GPU. | ||
[[File:GPU_and_a_half_(cores).png|frame|center|Figure 6 – <i>1.5 équivalent-GPU (cœurs)</i>]] <br clear=all> | [[File:GPU_and_a_half_(cores).png|frame|center|Figure 6 – <i>1.5 équivalent-GPU (cœurs)</i>]] <br clear=all> | ||
</div> | |||
<div class="mw-translate-fuzzy"> | |||
* La mémoire est comptabilisée si un groupe utilise plus de mémoire que de GPU OU de cœurs par bundle avec GPU. | * La mémoire est comptabilisée si un groupe utilise plus de mémoire que de GPU OU de cœurs par bundle avec GPU. | ||
*:Dans la figure 7, on demande 1 GPU, 6 cœurs et 48Go; la requête exige donc 1.5 bundle avec GPU pour la mémoire, mais un seul bundle pour les GPU et les cœurs. Pour calculer la priorité, l’ordonnanceur évalue la demande à 1.5 équivalent-GPU. | *:Dans la figure 7, on demande 1 GPU, 6 cœurs et 48Go; la requête exige donc 1.5 bundle avec GPU pour la mémoire, mais un seul bundle pour les GPU et les cœurs. Pour calculer la priorité, l’ordonnanceur évalue la demande à 1.5 équivalent-GPU. | ||
[[File:GPU_and_a_half_(memory).png|frame|center|Figure 7 – <i>1.5 équivalent-GPU (mémoire)</i>]] <br clear=all> | [[File:GPU_and_a_half_(memory).png|frame|center|Figure 7 – <i>1.5 équivalent-GPU (mémoire)</i>]] <br clear=all> | ||
</div> | |||
* On the same fictive cluster, a bundle with one V100-32gb GPU, 7.8 CPU cores and 10.4 GB of memory is worth 2.6 RGU equivalents: | |||
[[File:Two.Six_RGU_equivalents.png|thumb|upright=2.1|center|Figure 8 - 2.6 RGU equivalents, based on the V100-32gb GPU.]] <br clear=all> | |||
* On the same fictive cluster, a bundle with one A100-40gb GPU, 12 CPU cores and 16 GB of memory is worth 4.0 RGU equivalents: | |||
[[File:Four_RGU_equivalents.png|thumb|upright=2.66|center|Figure 9 - 4.0 RGU equivalents, based on the A100-40gb GPU.]] <br clear=all> | |||
<div class="mw-translate-fuzzy"> | |||
== Ratios GPU / Cœurs CPU / Mémoire == | == Ratios GPU / Cœurs CPU / Mémoire == | ||
Les bundles ont les caractéristiques suivantes : | Les bundles ont les caractéristiques suivantes : | ||
Line 132: | Line 225: | ||
* [[Narval#Caract.C3.A9ristiques_des_n.C5.93uds|Narval]]: | * [[Narval#Caract.C3.A9ristiques_des_n.C5.93uds|Narval]]: | ||
** Nœuds A100/40Go : 1 GPU / 12 cœurs / 127000 Mo | ** Nœuds A100/40Go : 1 GPU / 12 cœurs / 127000 Mo | ||
</div> | |||
{| class="wikitable" style="margin: auto; text-align: center;" | |||
|- | |||
! scope="col"| Cluster | |||
! scope="col"| GPU model | |||
! scope="col"| RGU per GPU | |||
! scope="col"| Bundle per RGU | |||
! scope="col"| Bundle per GPU | |||
! scope="col"| Physical ratios | |||
|- | |||
! scope="row"| [[Béluga/en#Node_Characteristics|Béluga]] | |||
| V100-16gb | |||
| 2.2 | |||
| 4.5 cores / 21 GB | |||
| 10 cores / 46.5 GB | |||
| 10 cores / 46.5 GB | |||
|- | |||
! rowspan="3"| [[Cedar#Node_characteristics|Cedar]] | |||
| P100-12gb | |||
| 1.0 | |||
| rowspan="3"|3.1 cores / 25 GB | |||
| 3.1 cores / 25 GB | |||
| 6 cores / 31.2 GB | |||
|- | |||
| P100-16gb | |||
| 1.1 | |||
| 3.4 cores / 27 GB | |||
| 6 cores / 62.5 GB | |||
|- | |||
| V100-32gb | |||
| 2.6 | |||
| 8.0 cores / 65 GB | |||
| 8 cores / 46.5 GB | |||
|- | |||
! rowspan="5"| [[Graham#Node_characteristics|Graham]] | |||
| P100-12gb | |||
| 1.0 | |||
| rowspan="5"| 9.7 cores / 43 GB | |||
| 9.7 cores / 43 GB | |||
| 16 cores / 62 GB | |||
|- | |||
| T4-16gb | |||
| 1.3 | |||
| 12.6 cores / 56 GB | |||
| {4, 11} cores / 46.8 GB | |||
|- | |||
| V100-16gb* | |||
| 2.2 | |||
| 21.3 cores / 95 GB | |||
| 3.5 cores / 23.4 GB | |||
|- | |||
| V100-32gb* | |||
| 2.6 | |||
| 25.2 cores / 112 GB | |||
| 5 cores / 47.1 GB | |||
|- | |||
| A100-80gb* | |||
| 4.8 | |||
| 46.6 cores / 206 GB | |||
| {8, 16} c. / {62, 248} GB | |||
|- | |||
! scope="row"| [[Narval/en#Node_Characteristics|Narval]] | |||
| A100-40gb | |||
| 4.0 | |||
| 3.0 cores / 31 GB | |||
| 12 cores / 124.5 GB | |||
| 12 cores / 124.5 GB | |||
|} | |||
(*) These GPU models are available through a very few contributed GPU nodes. While all users can use them, they are not allocatable through the RAC process. | |||
<b>Note:</b> While the scheduler will compute the priority based on the usage calculated with the above bundles, users requesting multiple GPUs per node also have to take into account the physical ratios. | |||
<div class="mw-translate-fuzzy"> | |||
== Visionner les données d’utilisation par les groupes == | |||
</div> | |||
[[File:Select view group usage fr edit.png|thumb|Onglet <i>Mon compte</i>, option <i>Utilisation par le groupe</i>]] | |||
Vous pouvez visionner les données d’utilisation des ressources par votre groupe en sélectionnant <i>Mon compte --> Utilisation par le groupe</i> dans la base de données CCDB. | |||
<br clear=all> | |||
[[File:ccdb_view_use_by_compute_resource_fr.png|thumb|Utilisation de CPU et de GPU, par ressource de calcul]] | |||
Les valeurs pour l’utilisation des CPU (cœurs-année) et des GPU-année sont calculées selon la quantité des ressources allouées aux tâches exécutées sur les grappes. Notez que les valeurs employées dans les graphiques ne représentent pas les équivalents-cœur; ainsi, l’utilisation par les tâches qui exigent beaucoup de mémoire ne correspond pas à l’utilisation du compte représentée par l’ordonnanceur de la grappe. | |||
<div class="mw-translate-fuzzy"> | |||
La première barre d’onglets offre les vues suivantes : | |||
: <b>Par ressource de calcul</b>; nom de la grappe sur laquelle les tâches ont été soumises, | |||
: <b>Par projet (RAPI)</b>; projets auxquels les tâches ont été soumises, | |||
: <b>Par utilisateur</b>; utilisatrice ou utilisateur ayant soumis les tâches, | |||
: <b>Utilisation du stockage</b>; voyez [[Storage and file management/fr|Stockage et gestion des fichiers]]. | |||
</div> | |||
<div class="mw-translate-fuzzy"> | |||
=== Utilisation par ressource de calcul === | |||
</div> | |||
Cette vue montre l’utilisation par ressource de calcul par grappe, pour tous les groupes desquels vous êtes propriétaire ou membre, pour l’année d’allocation en cours qui commence le 1er avril. Les données représentent l’utilisation à jour et supposent que cette utilisation restera la même jusqu’à la fin de l’année d’allocation. | |||
<br clear=all> | |||
[[File:ccdb_view_use_by_compute_resource_monthly_fr.png|thumb|Utilisation mensuelle par ressource]] | |||
Dans la colonne <i>Extra Info</i>, cliquez sur <i>Utilisation sur une base mensuelle</i> pour obtenir la répartition mensuelle pour la ressource correspondante. En cliquant sur <i>Utilisation par utilisateur</i>, la répartition se fait par utilisateur ou utilisatrice ayant soumis les tâches. | |||
<br clear=all> | |||
<div class="mw-translate-fuzzy"> | |||
===Utilisation par projet=== | |||
[[File:Ccdb view use by compute resource monthly proj fr edit.png|thumb|Utilisation par projet, avec répartition mensuelle]] | |||
Pour cette vue, une troisième barre d'onglets permet de sélectionner l'identifiant de projet pour l'année d'allocation choisie. Le tableau montre les détails pour chaque projet ainsi que les ressources utilisées sur toutes les grappes. Dans le haut de la vue, on trouve le nom du compte (par exemple def-, rrg- ou rpp-*, etc.), le titre du projet et le ou la propriétaire, ainsi que les sommaires de l'allocation et de l'utilisation. | |||
<br clear=all> | |||
</div> | |||
<div class="mw-translate-fuzzy"> | |||
===Utilisation par utilisateur=== | |||
[[File:Ccdb view use by submitter summary fr edit.png|thumb|Utilisation de CPU et GPU]] | |||
Cette vue montre l'utilisation par utilisatrices et utilisateurs ayant soumis des tâches pour le projet sélectionné (comptes de groupes), par système. En cliquant sur le nom d'une personne en particulier, vous obtiendrez son utilisation répartie par grappe. Tout comme les sommaires pour les groupes, vous pouvez utiliser l'option <i>Utilisation sur une base mensuelle</i>. | |||
<br clear=all> | |||
</div> | |||
[[Category:SLURM]] | [[Category:SLURM]] |