Cedar/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
(Updating to match new version of source page)
No edit summary
 
(283 intermediate revisions by 7 users not shown)
Line 1: Line 1:
<noinclude><languages />
<noinclude><languages />


</noinclude>
{| class="wikitable"
===Cedar (GP2)===
|-
| Disponibilité : depuis le 30 juin 2017, dans le cadre du concours d'allocation des ressources pour 2017
|-
| Nœud frontal (<i>login node</i>) : <b>cedar.alliancecan.ca</b>
|-
| Point de chute Globus : <b>computecanada#cedar-globus</b>
|-
| État de la grappe :  <b>https://status.alliancecan.ca/</b>
|}


CEDAR is a heterogeneous cluster, suitable for a variety of workloads, located at Simon Fraser University. It is named for the [https://en.wikipedia.org/wiki/Thuja_plicata Western Red Cedar], B.C.’s official tree and of great spiritual significance to the region's First Nations people. It was previously known as "GP2" and is still identified as such in the [https://www.computecanada.ca/research-portal/accessing-resources/resource-allocation-competitions/ 2017 RAC] documentation.  
Cedar est une grappe hétérogène adaptée pour plusieurs types de tâches; elle est située à l'Université Simon-Fraser. Son nom rappelle le [https://fr.wikipedia.org/wiki/Thuja_plicata cèdre de l'Ouest], arbre officiel de la Colombie-Britannique dont la signification spirituelle est importante pour les Premières Nations de la région.
<br/>
Le fournisseur est Scalar Decisions Inc.; les nœuds sont des produits Dell; le système de fichiers de stockage /scratch haute performance est de DDN; la réseautique est d'Intel. Un système de refroidissement liquide utilise des échangeurs de chaleur à même les portes arrière.
<br/>
<br/>
IMPORTANT : La version 4 de Globus ne supporte plus les points de chute et <b>computecanada#cedar-dtn</b> n'est plus disponible. Veuillez utiliser le point de chute de la version 5, <b>computecanada#cedar-globus</b>.


System evaluation is not yet completed as of November 2016.  Anticipated specifications, based on SFU's RFP and bids received, include the following.  This information is '''not guaranteed''' and might not be complete.  It is provided for planning purposes.
[[Getting started/fr| Introduction à Cedar]]<br>
[[Running_jobs/fr|Exécuter des tâches]]<br>
[[Transferring_data|Transférer des données]]<br>


====Système de stockage====
==Stockage==


{| class="wikitable sortable"
{| class="wikitable sortable"
|-
|-
| '''$HOME''' ||
| <b>espace /home</b><br />volume total 526To||
Standard home directory<br />
* localisation des répertoires /home<br />
Not allocated<br />
* chaque répertoire /home a un petit [[Storage and file management/fr#Quotas_et_politiques|quota]] fixe
Small, standard quota<br />
* non alloué via le [https://alliancecan.ca/fr/services/calcul-informatique-de-pointe/acces-aux-ressources/service-dacces-rapide service d'accès rapide] ou le [https://alliancecan.ca/fr/services/calcul-informatique-de-pointe/acces-aux-ressources/concours-pour-lallocation-de-ressources concours d'allocation de ressources]; le stockage de grande envergure se fait sur /project
Larger requests should be on $PROJECT
* est sauvegardé chaque jour
|-
| '''$SCRATCH<br />Parallel High-performance filesystem''' ||
Approximately 4PB usable capacity for temporary (<code>/scratch</code>) storage.<br />
Aggregate performance of approximately 40GB/s.  Available to all nodes.<br />
Not allocated<br />
Purged - inactive data will be purged
|-
|-
|'''$PROJECT<br />External persistent storage'''
| <b>espace /scratch</b>, <br />volume total 5.4Po<br />système de fichiers parallèle de haute performance ||
||
* stockage actif ou temporaire <br />
Provided by the [[National_Data_Cyberinfrastructure|NDC]].<br />
* non alloué
Available to compute nodes, but not designed for parallel I/O workloads.<br />
* grand [[Storage and file management/fr#Quotas_et_politiques|quota]] fixe, par utilisateur
* les données inactives sont [[Scratch purging policy/fr|purgées]]
|-
|-
|'''High performance interconnect'''
|<b>espace /project</b><br />volume total 23Po<br />stockage persistant externe
||
||
Low-latency high-performance fabric connecting all nodes and temporary storage. <br />
* ne convient pas aux tâches d'écriture et de lecture parallèles; utiliser plutôt l'espace /scratch
The design of Cedar is to support multiple simultaneous parallel jobs of at least 1024 cores in a fully non-blocking manner. Jobs larger than 1024 cores would be less well-suited for the topology.
* grand [[Storage and file management/fr#Quotas_et_politiques|quota]] ajustable, par projet
* est sauvegardé chaque jour
|}
|}


====Types de noeuds et leurs caractéristiques====
Le stockage temporaire (/scratch) est un système de fichiers Lustre basé sur la technologie DDN, modèle ES14K. Il est composé de 640 disques NL-SAS de 8To chacun, avec un double contrôleur de métadonnées dont les disques sont des SSD.
 
==Réseautique haute performance==
 
<i>Réseautique Intel OmniPath (version 1, bande passante de 100Gbit/s).</i>
 
Une réseautique à faible latence et haute performance pour tous les nœuds de calcul et le stockage temporaire.
 
L'architecture a été planifiée pour supporter de multiples tâches parallèles utilisant jusqu'à 1024 cœurs Broadwell (32 nœuds) ou 1536 cœurs Skylake (32 nœuds) ou 1536 cœurs Cascade Lake (32 nœuds) grâce à une réseautique non bloquante. Pour les plus grandes tâches, le réseau a un facteur de blocage de 2:1. Même pour les tâches de plusieurs milliers de cœurs, Cedar est une bonne option.
 
==Caractéristiques des nœuds==
 
Cedar offre 100,400 cœurs CPU pour le calcul et 1352 GPU. TurboBoost est désactivé sur tous les nœuds.


{| class="wikitable sortable"
{| class="wikitable sortable"
! nœuds !! cœurs !! mémoire disponible !! CPU  !! stockage !! GPU
|-
| 256 || 32 || 125G ou 128000M  || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G  || -
|-
| 256 || 32 || 250G ou 257000M  || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G || -
|-
| 40  || 32 || 502G ou 515000M  || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G || -
|-
|-
| Noeuds de calcul de base: || Plus de 500 noeuds || 128 Go de mémoire, 16 coeurs/socket, 2 sockets/noeud
| 16  || 32 || 1510G ou 1547000M || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G || -
|-
|-
| Noeuds de calcul de type "large": || Plus de 100 noeuds || 256 Go de mémoire, 16 coeurs/sockets, 2 sockets/noeud
| || 32 || 4000G ou 409600M || 2 x AMD EPYC 7302 @ 3.0GHz || 2 x SSD 480G || -
|-
|-
| Noeuds à grande mémoire 512 || 24 noeuds || 512 Go de mémoire, 16 coeurs/socket, 2 sockets/noeud
| 2 || 40 || 6000G ou 614400M  || 4 x Intel Gold 5215 Cascade Lake @ 2.5GHz || 2 x SSD 480G || -
|-
|-
| Noeuds à grande mémoire 1500 || 24 noeuds || 1.5 To de mémoire, 16 coeurs/socket, 2 sockets/noeud
| 96  || 24 || 125G ou 128000M  || 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz || 1 x SSD 800G || 4 x NVIDIA P100 Pascal (mémoire HBM2 12G)
|-
|-
| Noeuds GPU de base || Plus de 100 noeuds || 128 Go de mémoire, 12 coeurs/socket, 2 sockets/noeud, 4 GPUs/noeud, 2 GPUs/socket.  
| 32  || 24 || 250G ou 257000M  || 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz || 1 x SSD 800G || 4 x NVIDIA P100 Pascal (mémoire HBM2 16G)
|-
|-
| Noeuds GPU "large"  || Environ 30 noeuds || 256 Go de mémoire, 12 coeurs/socket, 2 sockets/noeud, 4 GPUs/noeud, Tous les GPUs sur le même socket
| 192 || 32 || 187G ou 192000M  || 2 x Intel Silver 4216 Cascade Lake @ 2.1GHz || 1 x SSD 480G || 4 x NVIDIA V100 Volta (mémoire HBM2 32G)
|-
|-
| Noeuds à grande mémoire 3000 || 4 noeuds || 3 To de mémoire, 8 coeurs/socket, 4 sockets/noeud
| 608 || 48 || 187G ou 192000M  || 2 x Intel Platinum 8160F Skylake @ 2.1GHz || 2 x SSD 480G || -
|-
| 768 || 48 || 187G ou 192000M  || 2 x Intel Platinum 8260 Cascade Lake @ 2.4GHz || 2 x SSD 480G || -
|}
|}


Tous les noeuds ci-dessus auront du stockage local.
Remarquez que la quantité de mémoire disponible est moindre que la valeur arrondie suggérée par la configuration matérielle. Par exemple, les nœuds de type <i>base 128G</i> ont effectivement 128Gio de mémoire vive, mais une certaine quantité est utilisée en permanence par le noyau (<i>kernel</i>) et le système d'exploitation. Pour éviter la perte de temps encourue par le <i>swapping</i> ou le <i>paging</i>, l'ordonnanceur n'allouera jamais une tâche dont les exigences dépassent la quantité de mémoire disponible indiquée dans le tableau ci-dessus.
 
Tous les nœuds ont de l'espace de stockage local temporaire. Les nœuds de calcul (à l'exception des nœuds GPU) ont deux disques SSD de 480Go pour une capacité totale de 960Go. Les nœuds GPU ont un disque SSD de 800Go ou de 480Go. Utilisez le stockage local sur le nœud par le biais du répertoire créé pour la tâche par l'ordonnanceur. Voir  [[Using node-local storage/fr|Stockage local sur les nœuds de calcul]].
 
===Sélectionner un type de nœud===
Un certain nombre de nœuds de 48 cœurs sont réservés pour les tâches qui nécessitent des nœuds entiers. Aucun nœud de 32 cœurs n'est réservé pour les calculs avec des nœuds entiers. <b>Les tâches qui nécessitent moins de 48 cœurs par nœud pourraient donc avoir à partager des nœuds avec d'autres tâches</b>.
<br>
La plupart des applications peuvent être exécutées sur les nœuds Broadwell, Skylake ou Cascade Lake et la différence en performance ne devrait pas être significative en comparaison des temps d'attente. Nous vous recommandons de ne pas spécifier le type de nœud pour vos tâches. Par contre, s'il est nécessaire de demander un type particulier, utilisez <code>--constraint=cascade</code>, <code>--constraint=skylake</code> ou <code>--constraint=broadwell</code>.  Si vous avez besoin d'un nœud AVX512, utilisez <code>--constraint=[skylake|cascade]</code>.
 
== Modification à la politique de soumission et exécution de tâches ==


Calcul Canada n'est présentement pas en mesure de spécifier le modèle de GPU. L'appel d'offre utilisait des NVidia K80 comme minimum.
Depuis le <b>17 avril 2019</b>, les tâches ne peuvent plus être exécutées dans le système de fichiers <code>/home</code>. Cette modification a pour but de diminuer la charge et d'améliorer le temps de réponse en mode interactif dans <code>/home</code>. Si le message <code>Submitting jobs from directories residing in /home is not permitted</code> s'affiche, transférez les fichiers vers votre répertoire <code>/project</code> ou <code>/scratch</code> et soumettez la tâche à partir du nouvel emplacement.


The completed system is expected to have over 25,000 cores, 900 nodes, and 500 GPUs.
===Performance===
La performance théorique maximale en double précision est de 6547 téraflops pour les CPU auxquels s'ajoutent 7434 téraflops pour les GPU, pour un total de près de 14 pétaflops.


L'horaire de livraison et d'installation n'est pas encore déterminé. L'équipe d'acquisition est confiante que le système sera en production au début de l'année d'allocation, le 1er avril 2017.
La topologie réseau est une composition d'îlots avec un facteur de blocage de 2:1 entre chacun. La plupart des îlots ont 32 nœuds entièrement reliés par une interconnexion (<i>Omni-Path fabric</i>) non bloquante.
<br>
La plupart des îlots ont 32 nœuds&nbsp;:
* 16 îlots de 32 nœuds Broadwell chacun avec 32 cœurs, soit 1024 cœurs par îlot;
* 43 îlots de 32 nœuds Skylake ou Cascade Lake chacun avec 48 cœurs, soit 1536 cœurs par îlot;
* 4 îlots avec 32 nœuds GPU P100;
* 6 îlots avec 32 nœuds GPU V100;
* 2 îlots de 32 nœuds Broadwell de grande mémoire chacun; de ces 64 nœuds, 40 sont de 05.To, 16 sont de 1.5To, 6 sont de 4To et 2 sont de 6To.


<noinclude>
<noinclude>
</noinclude>
</noinclude>

Latest revision as of 21:20, 6 May 2024

Other languages:
Disponibilité : depuis le 30 juin 2017, dans le cadre du concours d'allocation des ressources pour 2017
Nœud frontal (login node) : cedar.alliancecan.ca
Point de chute Globus : computecanada#cedar-globus
État de la grappe : https://status.alliancecan.ca/

Cedar est une grappe hétérogène adaptée pour plusieurs types de tâches; elle est située à l'Université Simon-Fraser. Son nom rappelle le cèdre de l'Ouest, arbre officiel de la Colombie-Britannique dont la signification spirituelle est importante pour les Premières Nations de la région.
Le fournisseur est Scalar Decisions Inc.; les nœuds sont des produits Dell; le système de fichiers de stockage /scratch haute performance est de DDN; la réseautique est d'Intel. Un système de refroidissement liquide utilise des échangeurs de chaleur à même les portes arrière.

IMPORTANT : La version 4 de Globus ne supporte plus les points de chute et computecanada#cedar-dtn n'est plus disponible. Veuillez utiliser le point de chute de la version 5, computecanada#cedar-globus.

Introduction à Cedar
Exécuter des tâches
Transférer des données

Stockage

espace /home
volume total 526To
espace /scratch,
volume total 5.4Po
système de fichiers parallèle de haute performance
  • stockage actif ou temporaire
  • non alloué
  • grand quota fixe, par utilisateur
  • les données inactives sont purgées
espace /project
volume total 23Po
stockage persistant externe
  • ne convient pas aux tâches d'écriture et de lecture parallèles; utiliser plutôt l'espace /scratch
  • grand quota ajustable, par projet
  • est sauvegardé chaque jour

Le stockage temporaire (/scratch) est un système de fichiers Lustre basé sur la technologie DDN, modèle ES14K. Il est composé de 640 disques NL-SAS de 8To chacun, avec un double contrôleur de métadonnées dont les disques sont des SSD.

Réseautique haute performance

Réseautique Intel OmniPath (version 1, bande passante de 100Gbit/s).

Une réseautique à faible latence et haute performance pour tous les nœuds de calcul et le stockage temporaire.

L'architecture a été planifiée pour supporter de multiples tâches parallèles utilisant jusqu'à 1024 cœurs Broadwell (32 nœuds) ou 1536 cœurs Skylake (32 nœuds) ou 1536 cœurs Cascade Lake (32 nœuds) grâce à une réseautique non bloquante. Pour les plus grandes tâches, le réseau a un facteur de blocage de 2:1. Même pour les tâches de plusieurs milliers de cœurs, Cedar est une bonne option.

Caractéristiques des nœuds

Cedar offre 100,400 cœurs CPU pour le calcul et 1352 GPU. TurboBoost est désactivé sur tous les nœuds.

nœuds cœurs mémoire disponible CPU stockage GPU
256 32 125G ou 128000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
256 32 250G ou 257000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
40 32 502G ou 515000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
16 32 1510G ou 1547000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
6 32 4000G ou 409600M 2 x AMD EPYC 7302 @ 3.0GHz 2 x SSD 480G -
2 40 6000G ou 614400M 4 x Intel Gold 5215 Cascade Lake @ 2.5GHz 2 x SSD 480G -
96 24 125G ou 128000M 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz 1 x SSD 800G 4 x NVIDIA P100 Pascal (mémoire HBM2 12G)
32 24 250G ou 257000M 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz 1 x SSD 800G 4 x NVIDIA P100 Pascal (mémoire HBM2 16G)
192 32 187G ou 192000M 2 x Intel Silver 4216 Cascade Lake @ 2.1GHz 1 x SSD 480G 4 x NVIDIA V100 Volta (mémoire HBM2 32G)
608 48 187G ou 192000M 2 x Intel Platinum 8160F Skylake @ 2.1GHz 2 x SSD 480G -
768 48 187G ou 192000M 2 x Intel Platinum 8260 Cascade Lake @ 2.4GHz 2 x SSD 480G -

Remarquez que la quantité de mémoire disponible est moindre que la valeur arrondie suggérée par la configuration matérielle. Par exemple, les nœuds de type base 128G ont effectivement 128Gio de mémoire vive, mais une certaine quantité est utilisée en permanence par le noyau (kernel) et le système d'exploitation. Pour éviter la perte de temps encourue par le swapping ou le paging, l'ordonnanceur n'allouera jamais une tâche dont les exigences dépassent la quantité de mémoire disponible indiquée dans le tableau ci-dessus.

Tous les nœuds ont de l'espace de stockage local temporaire. Les nœuds de calcul (à l'exception des nœuds GPU) ont deux disques SSD de 480Go pour une capacité totale de 960Go. Les nœuds GPU ont un disque SSD de 800Go ou de 480Go. Utilisez le stockage local sur le nœud par le biais du répertoire créé pour la tâche par l'ordonnanceur. Voir Stockage local sur les nœuds de calcul.

Sélectionner un type de nœud

Un certain nombre de nœuds de 48 cœurs sont réservés pour les tâches qui nécessitent des nœuds entiers. Aucun nœud de 32 cœurs n'est réservé pour les calculs avec des nœuds entiers. Les tâches qui nécessitent moins de 48 cœurs par nœud pourraient donc avoir à partager des nœuds avec d'autres tâches.
La plupart des applications peuvent être exécutées sur les nœuds Broadwell, Skylake ou Cascade Lake et la différence en performance ne devrait pas être significative en comparaison des temps d'attente. Nous vous recommandons de ne pas spécifier le type de nœud pour vos tâches. Par contre, s'il est nécessaire de demander un type particulier, utilisez --constraint=cascade, --constraint=skylake ou --constraint=broadwell. Si vous avez besoin d'un nœud AVX512, utilisez --constraint=[skylake|cascade].

Modification à la politique de soumission et exécution de tâches

Depuis le 17 avril 2019, les tâches ne peuvent plus être exécutées dans le système de fichiers /home. Cette modification a pour but de diminuer la charge et d'améliorer le temps de réponse en mode interactif dans /home. Si le message Submitting jobs from directories residing in /home is not permitted s'affiche, transférez les fichiers vers votre répertoire /project ou /scratch et soumettez la tâche à partir du nouvel emplacement.

Performance

La performance théorique maximale en double précision est de 6547 téraflops pour les CPU auxquels s'ajoutent 7434 téraflops pour les GPU, pour un total de près de 14 pétaflops.

La topologie réseau est une composition d'îlots avec un facteur de blocage de 2:1 entre chacun. La plupart des îlots ont 32 nœuds entièrement reliés par une interconnexion (Omni-Path fabric) non bloquante.
La plupart des îlots ont 32 nœuds :

  • 16 îlots de 32 nœuds Broadwell chacun avec 32 cœurs, soit 1024 cœurs par îlot;
  • 43 îlots de 32 nœuds Skylake ou Cascade Lake chacun avec 48 cœurs, soit 1536 cœurs par îlot;
  • 4 îlots avec 32 nœuds GPU P100;
  • 6 îlots avec 32 nœuds GPU V100;
  • 2 îlots de 32 nœuds Broadwell de grande mémoire chacun; de ces 64 nœuds, 40 sont de 05.To, 16 sont de 1.5To, 6 sont de 4To et 2 sont de 6To.