Cedar/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
No edit summary
No edit summary
 
(286 intermediate revisions by 7 users not shown)
Line 1: Line 1:
<noinclude><languages />
<noinclude><languages />


</noinclude>
{| class="wikitable"
===GP2 (SFU)===
|-
| Disponibilité : depuis le 30 juin 2017, dans le cadre du concours d'allocation des ressources pour 2017
|-
| Nœud frontal (<i>login node</i>) : <b>cedar.alliancecan.ca</b>
|-
| Point de chute Globus : <b>computecanada#cedar-globus</b>
|-
| État de la grappe :  <b>https://status.alliancecan.ca/</b>
|}


====Introduction====
Cedar est une grappe hétérogène adaptée pour plusieurs types de tâches; elle est située à l'Université Simon-Fraser. Son nom rappelle le [https://fr.wikipedia.org/wiki/Thuja_plicata cèdre de l'Ouest], arbre officiel de la Colombie-Britannique dont la signification spirituelle est importante pour les Premières Nations de la région.
<br/>
Le fournisseur est Scalar Decisions Inc.; les nœuds sont des produits Dell; le système de fichiers de stockage /scratch haute performance est de DDN; la réseautique est d'Intel. Un système de refroidissement liquide utilise des échangeurs de chaleur à même les portes arrière.
<br/>
<br/>
IMPORTANT : La version 4 de Globus ne supporte plus les points de chute et <b>computecanada#cedar-dtn</b> n'est plus disponible. Veuillez utiliser le point de chute de la version 5, <b>computecanada#cedar-globus</b>.


L'évaluation du système GP2 n'est pas encore complétée en date du début novembre 2016. Les spécifications anticipées, basées sur l'appel d'offre et les offres reçues sont ci-dessous. Ces informations ne sont '''pas garanties''' et pourraient être incomplètes. Elles sont fournies dans une optique de planification.
[[Getting started/fr| Introduction à Cedar]]<br>
[[Running_jobs/fr|Exécuter des tâches]]<br>
[[Transferring_data|Transférer des données]]<br>


====Système de stockage====
==Stockage==


{| class="wikitable sortable"
{| class="wikitable sortable"
|-
|-
| '''$HOME''' ||
| <b>espace /home</b><br />volume total 526To||
Répertoire d'accueil standard<br />
* localisation des répertoires /home<br />
Non alloué<br />
* chaque répertoire /home a un petit [[Storage and file management/fr#Quotas_et_politiques|quota]] fixe
Faibles quotas par défaut<br />
* non alloué via le [https://alliancecan.ca/fr/services/calcul-informatique-de-pointe/acces-aux-ressources/service-dacces-rapide service d'accès rapide] ou le [https://alliancecan.ca/fr/services/calcul-informatique-de-pointe/acces-aux-ressources/concours-pour-lallocation-de-ressources concours d'allocation de ressources]; le stockage de grande envergure se fait sur /project
Le stockage de plus grande ampleur devrait être sur $PROJECT
* est sauvegardé chaque jour
|-
| '''$SCRATCH<br />Système de fichiers parallèle de haute performance''' ||
Approximativement 4Po d'espace utilisable pour du stockage temporaire (<code>/scratch</code>).<br />
Performance globale d'environ 40 Go/s.  Visible sur tous les noeuds.<br />
Non alloué<br />
Purgé - les données inactives seront effacées
|-
|-
|'''$PROJECT<br />Stockage persistant externe'''
| <b>espace /scratch</b>, <br />volume total 5.4Po<br />système de fichiers parallèle de haute performance ||
||
* stockage actif ou temporaire <br />
Fournie par la [[National_Data_Cyberinfrastructure/fr|cyber infrastructure nationale de données]]<br />
* non alloué
Disponible sur tous les noeuds de calcul, mais sous-optimale pour les tâches d'écriture et de lecture en parallèle<br />
* grand [[Storage and file management/fr#Quotas_et_politiques|quota]] fixe, par utilisateur
* les données inactives sont [[Scratch purging policy/fr|purgées]]
|-
|-
|'''Interconnexion de haute performance'''
|<b>espace /project</b><br />volume total 23Po<br />stockage persistant externe
||
||
Réseautique faible latence et haute performance pour tous les noeuds de calcul et le stockage temporaire. <br />
* ne convient pas aux tâches d'écriture et de lecture parallèles; utiliser plutôt l'espace /scratch
L'architecture de GP2 a été planifiée pour supporter de multiples tâches parallèles jusqu'à 1024 coeurs grâce à une réseautique non bloquante. Les tâches plus grandes que 1024 coeurs ne seront pas aussi bien supportées par la topologie du réseau.
* grand [[Storage and file management/fr#Quotas_et_politiques|quota]] ajustable, par projet
* est sauvegardé chaque jour
|}
|}


====Types de noeuds et leurs caractéristiques====
Le stockage temporaire (/scratch) est un système de fichiers Lustre basé sur la technologie DDN, modèle ES14K. Il est composé de 640 disques NL-SAS de 8To chacun, avec un double contrôleur de métadonnées dont les disques sont des SSD.
 
==Réseautique haute performance==
 
<i>Réseautique Intel OmniPath (version 1, bande passante de 100Gbit/s).</i>
 
Une réseautique à faible latence et haute performance pour tous les nœuds de calcul et le stockage temporaire.
 
L'architecture a été planifiée pour supporter de multiples tâches parallèles utilisant jusqu'à 1024 cœurs Broadwell (32 nœuds) ou 1536 cœurs Skylake (32 nœuds) ou 1536 cœurs Cascade Lake (32 nœuds) grâce à une réseautique non bloquante. Pour les plus grandes tâches, le réseau a un facteur de blocage de 2:1. Même pour les tâches de plusieurs milliers de cœurs, Cedar est une bonne option.
 
==Caractéristiques des nœuds==
 
Cedar offre 100,400 cœurs CPU pour le calcul et 1352 GPU. TurboBoost est désactivé sur tous les nœuds.


{| class="wikitable sortable"
{| class="wikitable sortable"
! nœuds !! cœurs !! mémoire disponible !! CPU  !! stockage !! GPU
|-
|-
| Noeuds de calcul de base: || Plus de 500 noeuds ||  128 Go de mémoire, 16 coeurs/socket, 2 sockets/noeud
| 256 || 32 || 125G ou 128000M  || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G || -
|-
|-
| Noeuds de calcul de type "large": || Plus de 100 noeuds || 256 Go de mémoire, 16 coeurs/sockets, 2 sockets/noeud
| 256 || 32 || 250G ou 257000M  || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G || -
|-
|-
| Noeuds à grande mémoire 512 || 24 noeuds || 512 Go de mémoire, 16 coeurs/socket, 2 sockets/noeud
| 40  || 32 || 502G ou 515000M  || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G || -
|-
|-
| Noeuds à grande mémoire 1500 || 24 noeuds || 1.5 To de mémoire, 16 coeurs/socket, 2 sockets/noeud
| 16  || 32 || 1510G ou 1547000M || 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz || 2 x SSD 480G || -
|-
|-
| Noeuds GPU de base || Plus de 100 noeuds || 128 Go de mémoire, 12 coeurs/socket, 2 sockets/noeud, 4 GPUs/noeud, 2 GPUs/socket.
| || 32 || 4000G ou 409600M || 2 x AMD EPYC 7302 @ 3.0GHz || 2 x SSD 480G || -
|-
|-
| Noeuds GPU "large"  || Environ 30 noeuds || 256 Go de mémoire, 12 coeurs/socket, 2 sockets/noeud, 4 GPUs/noeud, Tous les GPUs sur le même socket
| 2 || 40 || 6000G ou 614400M  || 4 x Intel Gold 5215 Cascade Lake @ 2.5GHz || 2 x SSD 480G || -
|-
|-
| Noeuds à grande mémoire 3000 || 4 noeuds || 3 To de mémoire, 8 coeurs/socket, 4 sockets/noeud
| 96  || 24 || 125G ou 128000M  || 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz || 1 x SSD 800G || 4 x NVIDIA P100 Pascal (mémoire HBM2 12G)
|-
| 32  || 24 || 250G ou 257000M  || 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz || 1 x SSD 800G || 4 x NVIDIA P100 Pascal (mémoire HBM2 16G)
|-
| 192 || 32 || 187G ou 192000M  || 2 x Intel Silver 4216 Cascade Lake @ 2.1GHz || 1 x SSD 480G || 4 x NVIDIA V100 Volta (mémoire HBM2 32G)
|-
| 608 || 48 || 187G ou 192000M  || 2 x Intel Platinum 8160F Skylake @ 2.1GHz || 2 x SSD 480G || -
|-
| 768 || 48 || 187G ou 192000M  || 2 x Intel Platinum 8260 Cascade Lake @ 2.4GHz || 2 x SSD 480G || -
|}
|}


Tous les noeuds ci-dessus auront du stockage local.
Remarquez que la quantité de mémoire disponible est moindre que la valeur arrondie suggérée par la configuration matérielle. Par exemple, les nœuds de type <i>base 128G</i> ont effectivement 128Gio de mémoire vive, mais une certaine quantité est utilisée en permanence par le noyau (<i>kernel</i>) et le système d'exploitation. Pour éviter la perte de temps encourue par le <i>swapping</i> ou le <i>paging</i>, l'ordonnanceur n'allouera jamais une tâche dont les exigences dépassent la quantité de mémoire disponible indiquée dans le tableau ci-dessus.
 
Tous les nœuds ont de l'espace de stockage local temporaire. Les nœuds de calcul (à l'exception des nœuds GPU) ont deux disques SSD de 480Go pour une capacité totale de 960Go. Les nœuds GPU ont un disque SSD de 800Go ou de 480Go. Utilisez le stockage local sur le nœud par le biais du répertoire créé pour la tâche par l'ordonnanceur. Voir  [[Using node-local storage/fr|Stockage local sur les nœuds de calcul]].
 
===Sélectionner un type de nœud===
Un certain nombre de nœuds de 48 cœurs sont réservés pour les tâches qui nécessitent des nœuds entiers. Aucun nœud de 32 cœurs n'est réservé pour les calculs avec des nœuds entiers. <b>Les tâches qui nécessitent moins de 48 cœurs par nœud pourraient donc avoir à partager des nœuds avec d'autres tâches</b>.
<br>
La plupart des applications peuvent être exécutées sur les nœuds Broadwell, Skylake ou Cascade Lake et la différence en performance ne devrait pas être significative en comparaison des temps d'attente. Nous vous recommandons de ne pas spécifier le type de nœud pour vos tâches. Par contre, s'il est nécessaire de demander un type particulier, utilisez <code>--constraint=cascade</code>, <code>--constraint=skylake</code> ou <code>--constraint=broadwell</code>.  Si vous avez besoin d'un nœud AVX512, utilisez <code>--constraint=[skylake|cascade]</code>.


Calcul Canada n'est présentement pas en mesure de spécifier le modèle de GPU. L'appel d'offre utilisait des NVidia K80 comme minimum.
== Modification à la politique de soumission et exécution de tâches ==


La capacité attendue de GP2 est de plus de 25 000 coeurs, 900 noeuds et 500 GPUs.
Depuis le <b>17 avril 2019</b>, les tâches ne peuvent plus être exécutées dans le système de fichiers <code>/home</code>. Cette modification a pour but de diminuer la charge et d'améliorer le temps de réponse en mode interactif dans <code>/home</code>. Si le message <code>Submitting jobs from directories residing in /home is not permitted</code> s'affiche, transférez les fichiers vers votre répertoire <code>/project</code> ou <code>/scratch</code> et soumettez la tâche à partir du nouvel emplacement.


L'horaire de livraison et d'installation n'est pas encore déterminé. L'équipe d'acquisition est confiante que le système sera en production au début de l'année d'allocation, le 1er avril 2017.
===Performance===
La performance théorique maximale en double précision est de 6547 téraflops pour les CPU auxquels s'ajoutent 7434 téraflops pour les GPU, pour un total de près de 14 pétaflops.


====Nom====
La topologie réseau est une composition d'îlots avec un facteur de blocage de 2:1 entre chacun. La plupart des îlots ont 32 nœuds entièrement reliés par une interconnexion (<i>Omni-Path fabric</i>) non bloquante.
<br>
La plupart des îlots ont 32 nœuds&nbsp;:
* 16 îlots de 32 nœuds Broadwell chacun avec 32 cœurs, soit 1024 cœurs par îlot;
* 43 îlots de 32 nœuds Skylake ou Cascade Lake chacun avec 48 cœurs, soit 1536 cœurs par îlot;
* 4 îlots avec 32 nœuds GPU P100;
* 6 îlots avec 32 nœuds GPU V100;
* 2 îlots de 32 nœuds Broadwell de grande mémoire chacun; de ces 64 nœuds, 40 sont de 05.To, 16 sont de 1.5To, 6 sont de 4To et 2 sont de 6To.


Pour les noms des nouveaux systèmes, voir la page [[Migration2016:New_System_Names/fr|Migration2016 : Nom des nouveaux systèmes]]
<noinclude>
<noinclude>
</noinclude>
</noinclude>

Latest revision as of 21:20, 6 May 2024

Other languages:
Disponibilité : depuis le 30 juin 2017, dans le cadre du concours d'allocation des ressources pour 2017
Nœud frontal (login node) : cedar.alliancecan.ca
Point de chute Globus : computecanada#cedar-globus
État de la grappe : https://status.alliancecan.ca/

Cedar est une grappe hétérogène adaptée pour plusieurs types de tâches; elle est située à l'Université Simon-Fraser. Son nom rappelle le cèdre de l'Ouest, arbre officiel de la Colombie-Britannique dont la signification spirituelle est importante pour les Premières Nations de la région.
Le fournisseur est Scalar Decisions Inc.; les nœuds sont des produits Dell; le système de fichiers de stockage /scratch haute performance est de DDN; la réseautique est d'Intel. Un système de refroidissement liquide utilise des échangeurs de chaleur à même les portes arrière.

IMPORTANT : La version 4 de Globus ne supporte plus les points de chute et computecanada#cedar-dtn n'est plus disponible. Veuillez utiliser le point de chute de la version 5, computecanada#cedar-globus.

Introduction à Cedar
Exécuter des tâches
Transférer des données

Stockage

espace /home
volume total 526To
espace /scratch,
volume total 5.4Po
système de fichiers parallèle de haute performance
  • stockage actif ou temporaire
  • non alloué
  • grand quota fixe, par utilisateur
  • les données inactives sont purgées
espace /project
volume total 23Po
stockage persistant externe
  • ne convient pas aux tâches d'écriture et de lecture parallèles; utiliser plutôt l'espace /scratch
  • grand quota ajustable, par projet
  • est sauvegardé chaque jour

Le stockage temporaire (/scratch) est un système de fichiers Lustre basé sur la technologie DDN, modèle ES14K. Il est composé de 640 disques NL-SAS de 8To chacun, avec un double contrôleur de métadonnées dont les disques sont des SSD.

Réseautique haute performance

Réseautique Intel OmniPath (version 1, bande passante de 100Gbit/s).

Une réseautique à faible latence et haute performance pour tous les nœuds de calcul et le stockage temporaire.

L'architecture a été planifiée pour supporter de multiples tâches parallèles utilisant jusqu'à 1024 cœurs Broadwell (32 nœuds) ou 1536 cœurs Skylake (32 nœuds) ou 1536 cœurs Cascade Lake (32 nœuds) grâce à une réseautique non bloquante. Pour les plus grandes tâches, le réseau a un facteur de blocage de 2:1. Même pour les tâches de plusieurs milliers de cœurs, Cedar est une bonne option.

Caractéristiques des nœuds

Cedar offre 100,400 cœurs CPU pour le calcul et 1352 GPU. TurboBoost est désactivé sur tous les nœuds.

nœuds cœurs mémoire disponible CPU stockage GPU
256 32 125G ou 128000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
256 32 250G ou 257000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
40 32 502G ou 515000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
16 32 1510G ou 1547000M 2 x Intel E5-2683 v4 Broadwell @ 2.1GHz 2 x SSD 480G -
6 32 4000G ou 409600M 2 x AMD EPYC 7302 @ 3.0GHz 2 x SSD 480G -
2 40 6000G ou 614400M 4 x Intel Gold 5215 Cascade Lake @ 2.5GHz 2 x SSD 480G -
96 24 125G ou 128000M 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz 1 x SSD 800G 4 x NVIDIA P100 Pascal (mémoire HBM2 12G)
32 24 250G ou 257000M 2 x Intel E5-2650 v4 Broadwell @ 2.2GHz 1 x SSD 800G 4 x NVIDIA P100 Pascal (mémoire HBM2 16G)
192 32 187G ou 192000M 2 x Intel Silver 4216 Cascade Lake @ 2.1GHz 1 x SSD 480G 4 x NVIDIA V100 Volta (mémoire HBM2 32G)
608 48 187G ou 192000M 2 x Intel Platinum 8160F Skylake @ 2.1GHz 2 x SSD 480G -
768 48 187G ou 192000M 2 x Intel Platinum 8260 Cascade Lake @ 2.4GHz 2 x SSD 480G -

Remarquez que la quantité de mémoire disponible est moindre que la valeur arrondie suggérée par la configuration matérielle. Par exemple, les nœuds de type base 128G ont effectivement 128Gio de mémoire vive, mais une certaine quantité est utilisée en permanence par le noyau (kernel) et le système d'exploitation. Pour éviter la perte de temps encourue par le swapping ou le paging, l'ordonnanceur n'allouera jamais une tâche dont les exigences dépassent la quantité de mémoire disponible indiquée dans le tableau ci-dessus.

Tous les nœuds ont de l'espace de stockage local temporaire. Les nœuds de calcul (à l'exception des nœuds GPU) ont deux disques SSD de 480Go pour une capacité totale de 960Go. Les nœuds GPU ont un disque SSD de 800Go ou de 480Go. Utilisez le stockage local sur le nœud par le biais du répertoire créé pour la tâche par l'ordonnanceur. Voir Stockage local sur les nœuds de calcul.

Sélectionner un type de nœud

Un certain nombre de nœuds de 48 cœurs sont réservés pour les tâches qui nécessitent des nœuds entiers. Aucun nœud de 32 cœurs n'est réservé pour les calculs avec des nœuds entiers. Les tâches qui nécessitent moins de 48 cœurs par nœud pourraient donc avoir à partager des nœuds avec d'autres tâches.
La plupart des applications peuvent être exécutées sur les nœuds Broadwell, Skylake ou Cascade Lake et la différence en performance ne devrait pas être significative en comparaison des temps d'attente. Nous vous recommandons de ne pas spécifier le type de nœud pour vos tâches. Par contre, s'il est nécessaire de demander un type particulier, utilisez --constraint=cascade, --constraint=skylake ou --constraint=broadwell. Si vous avez besoin d'un nœud AVX512, utilisez --constraint=[skylake|cascade].

Modification à la politique de soumission et exécution de tâches

Depuis le 17 avril 2019, les tâches ne peuvent plus être exécutées dans le système de fichiers /home. Cette modification a pour but de diminuer la charge et d'améliorer le temps de réponse en mode interactif dans /home. Si le message Submitting jobs from directories residing in /home is not permitted s'affiche, transférez les fichiers vers votre répertoire /project ou /scratch et soumettez la tâche à partir du nouvel emplacement.

Performance

La performance théorique maximale en double précision est de 6547 téraflops pour les CPU auxquels s'ajoutent 7434 téraflops pour les GPU, pour un total de près de 14 pétaflops.

La topologie réseau est une composition d'îlots avec un facteur de blocage de 2:1 entre chacun. La plupart des îlots ont 32 nœuds entièrement reliés par une interconnexion (Omni-Path fabric) non bloquante.
La plupart des îlots ont 32 nœuds :

  • 16 îlots de 32 nœuds Broadwell chacun avec 32 cœurs, soit 1024 cœurs par îlot;
  • 43 îlots de 32 nœuds Skylake ou Cascade Lake chacun avec 48 cœurs, soit 1536 cœurs par îlot;
  • 4 îlots avec 32 nœuds GPU P100;
  • 6 îlots avec 32 nœuds GPU V100;
  • 2 îlots de 32 nœuds Broadwell de grande mémoire chacun; de ces 64 nœuds, 40 sont de 05.To, 16 sont de 1.5To, 6 sont de 4To et 2 sont de 6To.