Cedar/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
(Created page with "<noinclude>")
(Uniformisation de « nœud de connexion »)
Tags: Mobile edit Mobile web edit
 
(307 intermediate revisions by 8 users not shown)
Line 1: Line 1:
<noinclude><languages />
<noinclude><languages />


</noinclude>
{| class="wikitable"
===GP2 (SFU)===
|-
| Disponibilité : depuis le 30 juin 2017, dans le cadre du concours d'allocation des ressources pour 2017
|-
| Nœud de connexion : <b>cedar.alliancecan.ca</b>
|-
| Point de chute Globus : <b>computecanada#cedar-globus</b>
|-
| État de la grappe :  <b>https://status.alliancecan.ca/</b>
|}


====Introduction====
Cedar est une grappe hétérogène adaptée pour plusieurs types de tâches; elle est située à l'Université Simon-Fraser. Son nom rappelle le [https://fr.wikipedia.org/wiki/Thuja_plicata cèdre de l'Ouest], arbre officiel de la Colombie-Britannique dont la signification spirituelle est importante pour les Premières Nations de la région.
<br/>
Le fournisseur est Scalar Decisions Inc.; les nœuds sont des produits Dell; le système de fichiers de stockage /scratch haute performance est de DDN; la réseautique est d'Intel. Un système de refroidissement liquide utilise des échangeurs de chaleur à même les portes arrière.
<br/>
<br/>
IMPORTANT : La version 4 de Globus ne supporte plus les points de chute et <b>computecanada#cedar-dtn</b> n'est plus disponible. Veuillez utiliser le point de chute de la version 5, <b>computecanada#cedar-globus</b>.


L'évaluation du système GP2 n'est pas encore complétée en date du début novembre 2016. Les spécifications anticipées, basées sur l'appel d'offre et les offres reçues sont ci-dessous. Ces informations ne sont '''pas garanties''' et pourraient être incomplètes. Elles sont fournies dans une optique de planification.
[[Getting started/fr| Introduction à Cedar]]<br>
[[Running_jobs/fr|Exécuter des tâches]]<br>
[[Transferring_data|Transférer des données]]<br>


====Système de stockage====
==Stockage==


{| class="wikitable sortable"
{| class="wikitable sortable"
|-
|-
| '''$HOME''' ||
| <b>espace /home</b><br />volume total 526To||
Standard home directory<br />
* localisation des répertoires /home<br />
Not allocated<br />
* chaque répertoire /home a un petit [[Storage and file management/fr#Quotas_et_politiques|quota]] fixe
Small, standard quota<br />
* non alloué via le [https://alliancecan.ca/fr/services/calcul-informatique-de-pointe/acces-aux-ressources/service-dacces-rapide service d'accès rapide] ou le [https://alliancecan.ca/fr/services/calcul-informatique-de-pointe/acces-aux-ressources/concours-pour-lallocation-de-ressources concours d'allocation de ressources]; le stockage de grande envergure se fait sur /project
Larger requests should be on $PROJECT
* est sauvegardé chaque jour
|-
| '''$SCRATCH<br />Parallel High-performance filesystem''' ||
Approximately 4PB usable capacity for temporary (<code>/scratch</code>) storage.<br />
Aggregate performance of approximately 40GB/s.  Available to all nodes.<br />
Not allocated<br />
Purged - inactive data will be purged
|-
|-
|'''$PROJECT<br />External persistent storage'''
| <b>espace /scratch</b>, <br />volume total 5.4Po<br />système de fichiers parallèle de haute performance ||
||
* stockage actif ou temporaire <br />
See below - provided by the NDC.<br />
* non alloué
Available to compute nodes, but not designed for parallel i/o workloads.<br />
* grand [[Storage and file management/fr#Quotas_et_politiques|quota]] fixe, par utilisateur
* les données inactives sont [[Scratch purging policy/fr|purgées]]
|-
|-
|'''High performance interconnect'''
|<b>espace /project</b><br />volume total 23Po<br />stockage persistant externe
||
||
Low-latency high-performance fabric connecting all nodes and temporary storage. <br />
* ne convient pas aux tâches d'écriture et de lecture parallèles; utiliser plutôt l'espace /scratch
The design of GP2 is to support multiple simultaneous parallel jobs of at least 1024 cores in a fully non-blocking manner. Jobs larger than 1024 cores would be less well-suited for the topology.
* grand [[Storage and file management/fr#Quotas_et_politiques|quota]] ajustable, par projet
* est sauvegardé chaque jour
|}
|}


====Node types and characteristics:====
Le stockage temporaire (/scratch) est un système de fichiers Lustre basé sur la technologie DDN, modèle ES14K. Il est composé de 640 disques NL-SAS de 8To chacun, avec un double contrôleur de métadonnées dont les disques sont des SSD.
 
==Réseautique haute performance==
 
<i>Réseautique Intel OmniPath (version 1, bande passante de 100Gbit/s).</i>
 
Une réseautique à faible latence et haute performance pour tous les nœuds de calcul et le stockage temporaire.
 
L'architecture a été planifiée pour supporter de multiples tâches parallèles utilisant jusqu'à 1024 cœurs Broadwell (32 nœuds) ou 1536 cœurs Skylake (32 nœuds) ou 1536 cœurs Cascade Lake (32 nœuds) grâce à une réseautique non bloquante. Pour les plus grandes tâches, le réseau a un facteur de blocage de 2:1. Même pour les tâches de plusieurs milliers de cœurs, Cedar est une bonne option.
 
==Caractéristiques des nœuds==
 
Cedar offre 100,400 cœurs CPU pour le calcul et 1352 GPU. TurboBoost est désactivé sur tous les nœuds.


{| class="wikitable sortable"
{| class="wikitable sortable"
! nœuds !! cœurs !! mémoire disponible !! CPU  !! stockage !! GPU
|-
| 256 || 32 || 125G ou 128000M  || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G  || -
|-
| 256 || 32 || 250G ou 257000M  || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G || -
|-
| 40  || 32 || 502G ou 515000M  || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G || -
|-
|-
| "Base" compute nodes: || Over 500 nodes || 128GB of memory each
| 16  || 32 || 1510G ou 1547000M || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G || -
|-
|-
| "Large" compute nodes: || Over 100 nodes || 256GB of memory each
| || 32 || 4000G ou 409600M || 2 x AMD EPYC 7302 @ 3.0GHz || 2 x SSD 480G || -
|-
|-
| "Bigmem512" || 24 nodes || 512 GB of memory each
| 2 || 40 || 6000G ou 614400M  || 4 x Intel Gold 5215 Cascade Lake @ 2.5GHz || 2 x SSD 480G || -
|-
|-
|"Bigmem1500" nodes || 24 nodes || 1.5TB of memory each
| 96  || 24 || 125G ou 128000M  || 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz || 1 x SSD 800G || 4 x NVIDIA P100 Pascal (mémoire HBM2 12G)
|}
|-
 
| 32 || 24 || 250G ou 257000M  || 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz || 1 x SSD 800G || 4 x NVIDIA P100 Pascal (mémoire HBM2 16G)
All of the above nodes will have 16 cores/socket (32 cores/node), with an anticipated frequency of 2.1Ghz.
 
{| class="wikitable sortable"
|-
|-
| "GPU base" nodes: || Over 100 nodes with 4 GPUs each. || 12 cores/socket (24 cores/node) with an anticipated frequency of 2.2Ghz.  GPUs on a dual PCI root.
| 192 || 32 || 187G ou 192000M  || 2 x Intel Silver 4216 Cascade Lake @ 2.1GHz || 1 x SSD 480G || 4 x NVIDIA V100 Volta (mémoire HBM2 32G)
|-
|-
| "GPU large" nodes. || Approximately 30 nodes || same configuration as "GPU base," but a single PCI root.
| 608 || 48 || 187G ou 192000M  || 2 x Intel Platinum 8160F Skylake @ 2.1GHz || 2 x SSD 480G || -
|-
|-
| "Bigmem3000" nodes || 4 nodes || each with 3TB of memory. These are 4-socket nodes with 8 cores/socket.
| 768 || 48 || 187G ou 192000M  || 2 x Intel Platinum 8260 Cascade Lake @ 2.4GHz || 2 x SSD 480G || -
|}
|}


All of the above nodes will have local (on-node) storage.
Remarquez que la quantité de mémoire disponible est moindre que la valeur arrondie suggérée par la configuration matérielle. Par exemple, les nœuds de type <i>base 128G</i> ont effectivement 128Gio de mémoire vive, mais une certaine quantité est utilisée en permanence par le noyau (<i>kernel</i>) et le système d'exploitation. Pour éviter la perte de temps encourue par le <i>swapping</i> ou le <i>paging</i>, l'ordonnanceur n'allouera jamais une tâche dont les exigences dépassent la quantité de mémoire disponible indiquée dans le tableau ci-dessus.
 
Tous les nœuds ont de l'espace de stockage local temporaire. Les nœuds de calcul (à l'exception des nœuds GPU) ont deux disques SSD de 480Go pour une capacité totale de 960Go. Les nœuds GPU ont un disque SSD de 800Go ou de 480Go. Utilisez le stockage local sur le nœud par le biais du répertoire créé pour la tâche par l'ordonnanceur. Voir  [[Using node-local storage/fr|Stockage local sur les nœuds de calcul]].
 
===Sélectionner un type de nœud===
Un certain nombre de nœuds de 48 cœurs sont réservés pour les tâches qui nécessitent des nœuds entiers. Aucun nœud de 32 cœurs n'est réservé pour les calculs avec des nœuds entiers. <b>Les tâches qui nécessitent moins de 48 cœurs par nœud pourraient donc avoir à partager des nœuds avec d'autres tâches</b>.
<br>
La plupart des applications peuvent être exécutées sur les nœuds Broadwell, Skylake ou Cascade Lake et la différence en performance ne devrait pas être significative en comparaison des temps d'attente. Nous vous recommandons de ne pas spécifier le type de nœud pour vos tâches. Par contre, s'il est nécessaire de demander un type particulier, utilisez <code>--constraint=cascade</code>, <code>--constraint=skylake</code> ou <code>--constraint=broadwell</code>.  Si vous avez besoin d'un nœud AVX512, utilisez <code>--constraint=[skylake|cascade]</code>.


Compute Canada is not currently able to disclose the specific GPU model or specifications.  The RFP used NVIDIA K80 as a baseline specification.
== Modification à la politique de soumission et exécution de tâches ==


The total GP2 system is anticipated to have over 25,000 cores, 900 nodes, and 500 GPUs.
Depuis le <b>17 avril 2019</b>, les tâches ne peuvent plus être exécutées dans le système de fichiers <code>/home</code>. Cette modification a pour but de diminuer la charge et d'améliorer le temps de réponse en mode interactif dans <code>/home</code>. Si le message <code>Submitting jobs from directories residing in /home is not permitted</code> s'affiche, transférez les fichiers vers votre répertoire <code>/project</code> ou <code>/scratch</code> et soumettez la tâche à partir du nouvel emplacement.


The delivery and installation schedule is not yet known, but the procurement team has confidence that the system will be in production for the start of the allocations year on April 1, 2017.
===Performance===
La performance théorique maximale en double précision est de 6547 téraflops pour les CPU auxquels s'ajoutent 7434 téraflops pour les GPU, pour un total de près de 14 pétaflops.


====Name====
La topologie réseau est une composition d'îlots avec un facteur de blocage de 2:1 entre chacun. La plupart des îlots ont 32 nœuds entièrement reliés par une interconnexion (<i>Omni-Path fabric</i>) non bloquante.
<br>
La plupart des îlots ont 32 nœuds&nbsp;:
* 16 îlots de 32 nœuds Broadwell chacun avec 32 cœurs, soit 1024 cœurs par îlot;
* 43 îlots de 32 nœuds Skylake ou Cascade Lake chacun avec 48 cœurs, soit 1536 cœurs par îlot;
* 4 îlots avec 32 nœuds GPU P100;
* 6 îlots avec 32 nœuds GPU V100;
* 2 îlots de 32 nœuds Broadwell de grande mémoire chacun; de ces 64 nœuds, 40 sont de 05.To, 16 sont de 1.5To, 6 sont de 4To et 2 sont de 6To.


<noinclude>
<noinclude>
</noinclude>
</noinclude>

Latest revision as of 18:22, 13 November 2024

Other languages:
Disponibilité : depuis le 30 juin 2017, dans le cadre du concours d'allocation des ressources pour 2017
Nœud de connexion : cedar.alliancecan.ca
Point de chute Globus : computecanada#cedar-globus
État de la grappe : https://status.alliancecan.ca/

Cedar est une grappe hétérogène adaptée pour plusieurs types de tâches; elle est située à l'Université Simon-Fraser. Son nom rappelle le cèdre de l'Ouest, arbre officiel de la Colombie-Britannique dont la signification spirituelle est importante pour les Premières Nations de la région.
Le fournisseur est Scalar Decisions Inc.; les nœuds sont des produits Dell; le système de fichiers de stockage /scratch haute performance est de DDN; la réseautique est d'Intel. Un système de refroidissement liquide utilise des échangeurs de chaleur à même les portes arrière.

IMPORTANT : La version 4 de Globus ne supporte plus les points de chute et computecanada#cedar-dtn n'est plus disponible. Veuillez utiliser le point de chute de la version 5, computecanada#cedar-globus.

Introduction à Cedar
Exécuter des tâches
Transférer des données

Stockage

espace /home
volume total 526To
espace /scratch,
volume total 5.4Po
système de fichiers parallèle de haute performance
  • stockage actif ou temporaire
  • non alloué
  • grand quota fixe, par utilisateur
  • les données inactives sont purgées
espace /project
volume total 23Po
stockage persistant externe
  • ne convient pas aux tâches d'écriture et de lecture parallèles; utiliser plutôt l'espace /scratch
  • grand quota ajustable, par projet
  • est sauvegardé chaque jour

Le stockage temporaire (/scratch) est un système de fichiers Lustre basé sur la technologie DDN, modèle ES14K. Il est composé de 640 disques NL-SAS de 8To chacun, avec un double contrôleur de métadonnées dont les disques sont des SSD.

Réseautique haute performance

Réseautique Intel OmniPath (version 1, bande passante de 100Gbit/s).

Une réseautique à faible latence et haute performance pour tous les nœuds de calcul et le stockage temporaire.

L'architecture a été planifiée pour supporter de multiples tâches parallèles utilisant jusqu'à 1024 cœurs Broadwell (32 nœuds) ou 1536 cœurs Skylake (32 nœuds) ou 1536 cœurs Cascade Lake (32 nœuds) grâce à une réseautique non bloquante. Pour les plus grandes tâches, le réseau a un facteur de blocage de 2:1. Même pour les tâches de plusieurs milliers de cœurs, Cedar est une bonne option.

Caractéristiques des nœuds

Cedar offre 100,400 cœurs CPU pour le calcul et 1352 GPU. TurboBoost est désactivé sur tous les nœuds.

nœuds cœurs mémoire disponible CPU stockage GPU
256 32 125G ou 128000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
256 32 250G ou 257000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
40 32 502G ou 515000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
16 32 1510G ou 1547000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
6 32 4000G ou 409600M 2 x AMD EPYC 7302 @ 3.0GHz 2 x SSD 480G -
2 40 6000G ou 614400M 4 x Intel Gold 5215 Cascade Lake @ 2.5GHz 2 x SSD 480G -
96 24 125G ou 128000M 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz 1 x SSD 800G 4 x NVIDIA P100 Pascal (mémoire HBM2 12G)
32 24 250G ou 257000M 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz 1 x SSD 800G 4 x NVIDIA P100 Pascal (mémoire HBM2 16G)
192 32 187G ou 192000M 2 x Intel Silver 4216 Cascade Lake @ 2.1GHz 1 x SSD 480G 4 x NVIDIA V100 Volta (mémoire HBM2 32G)
608 48 187G ou 192000M 2 x Intel Platinum 8160F Skylake @ 2.1GHz 2 x SSD 480G -
768 48 187G ou 192000M 2 x Intel Platinum 8260 Cascade Lake @ 2.4GHz 2 x SSD 480G -

Remarquez que la quantité de mémoire disponible est moindre que la valeur arrondie suggérée par la configuration matérielle. Par exemple, les nœuds de type base 128G ont effectivement 128Gio de mémoire vive, mais une certaine quantité est utilisée en permanence par le noyau (kernel) et le système d'exploitation. Pour éviter la perte de temps encourue par le swapping ou le paging, l'ordonnanceur n'allouera jamais une tâche dont les exigences dépassent la quantité de mémoire disponible indiquée dans le tableau ci-dessus.

Tous les nœuds ont de l'espace de stockage local temporaire. Les nœuds de calcul (à l'exception des nœuds GPU) ont deux disques SSD de 480Go pour une capacité totale de 960Go. Les nœuds GPU ont un disque SSD de 800Go ou de 480Go. Utilisez le stockage local sur le nœud par le biais du répertoire créé pour la tâche par l'ordonnanceur. Voir Stockage local sur les nœuds de calcul.

Sélectionner un type de nœud

Un certain nombre de nœuds de 48 cœurs sont réservés pour les tâches qui nécessitent des nœuds entiers. Aucun nœud de 32 cœurs n'est réservé pour les calculs avec des nœuds entiers. Les tâches qui nécessitent moins de 48 cœurs par nœud pourraient donc avoir à partager des nœuds avec d'autres tâches.
La plupart des applications peuvent être exécutées sur les nœuds Broadwell, Skylake ou Cascade Lake et la différence en performance ne devrait pas être significative en comparaison des temps d'attente. Nous vous recommandons de ne pas spécifier le type de nœud pour vos tâches. Par contre, s'il est nécessaire de demander un type particulier, utilisez --constraint=cascade, --constraint=skylake ou --constraint=broadwell. Si vous avez besoin d'un nœud AVX512, utilisez --constraint=[skylake|cascade].

Modification à la politique de soumission et exécution de tâches

Depuis le 17 avril 2019, les tâches ne peuvent plus être exécutées dans le système de fichiers /home. Cette modification a pour but de diminuer la charge et d'améliorer le temps de réponse en mode interactif dans /home. Si le message Submitting jobs from directories residing in /home is not permitted s'affiche, transférez les fichiers vers votre répertoire /project ou /scratch et soumettez la tâche à partir du nouvel emplacement.

Performance

La performance théorique maximale en double précision est de 6547 téraflops pour les CPU auxquels s'ajoutent 7434 téraflops pour les GPU, pour un total de près de 14 pétaflops.

La topologie réseau est une composition d'îlots avec un facteur de blocage de 2:1 entre chacun. La plupart des îlots ont 32 nœuds entièrement reliés par une interconnexion (Omni-Path fabric) non bloquante.
La plupart des îlots ont 32 nœuds :

  • 16 îlots de 32 nœuds Broadwell chacun avec 32 cœurs, soit 1024 cœurs par îlot;
  • 43 îlots de 32 nœuds Skylake ou Cascade Lake chacun avec 48 cœurs, soit 1536 cœurs par îlot;
  • 4 îlots avec 32 nœuds GPU P100;
  • 6 îlots avec 32 nœuds GPU V100;
  • 2 îlots de 32 nœuds Broadwell de grande mémoire chacun; de ces 64 nœuds, 40 sont de 05.To, 16 sont de 1.5To, 6 sont de 4To et 2 sont de 6To.