Cedar/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
(Updating to match new version of source page)
(Updating to match new version of source page)
Line 2: Line 2:


</noinclude>
</noinclude>
===GP2 (SFU)===
===Cedar (GP2)===


====Introduction====
CEDAR is a heterogeneous cluster, suitable for a variety of workloads, located at Simon Fraser University. It is named for the [https://en.wikipedia.org/wiki/Thuja_plicata Western Red Cedar], B.C.’s official tree and of great spiritual significance to the region's First Nations people. It was previously known as "GP2" and is still identified as such in the [https://www.computecanada.ca/research-portal/accessing-resources/resource-allocation-competitions/ 2017 RAC] documentation.


L'évaluation du système GP2 n'est pas encore complétée en date du début novembre 2016. Les spécifications anticipées, basées sur l'appel d'offre et les offres reçues sont ci-dessous. Ces informations ne sont '''pas garanties''' et pourraient être incomplètes. Elles sont fournies dans une optique de planification.
System evaluation is not yet completed as of November 2016. Anticipated specifications, based on SFU's RFP and bids received, include the following. This information is '''not guaranteed''' and might not be complete. It is provided for planning purposes.


====Système de stockage====
====Système de stockage====
Line 13: Line 13:
|-
|-
| '''$HOME''' ||
| '''$HOME''' ||
Répertoire d'accueil standard<br />
Standard home directory<br />
Non alloué<br />
Not allocated<br />
Faibles quotas par défaut<br />
Small, standard quota<br />
Le stockage de plus grande ampleur devrait être sur $PROJECT
Larger requests should be on $PROJECT
|-
|-
| '''$SCRATCH<br />Système de fichiers parallèle de haute performance''' ||
| '''$SCRATCH<br />Parallel High-performance filesystem''' ||
Approximativement 4Po d'espace utilisable pour du stockage temporaire (<code>/scratch</code>).<br />
Approximately 4PB usable capacity for temporary (<code>/scratch</code>) storage.<br />
Performance globale d'environ 40 Go/s.  Visible sur tous les noeuds.<br />
Aggregate performance of approximately 40GB/s.  Available to all nodes.<br />
Non alloué<br />
Not allocated<br />
Purgé - les données inactives seront effacées
Purged - inactive data will be purged
|-
|-
|'''$PROJECT<br />Stockage persistant externe'''
|'''$PROJECT<br />External persistent storage'''
||
||
Fournie par la [[National_Data_Cyberinfrastructure/fr|cyber infrastructure nationale de données]]<br />
Provided by the [[National_Data_Cyberinfrastructure|NDC]].<br />
Disponible sur tous les noeuds de calcul, mais sous-optimale pour les tâches d'écriture et de lecture en parallèle<br />
Available to compute nodes, but not designed for parallel I/O workloads.<br />
|-
|-
|'''Interconnexion de haute performance'''
|'''High performance interconnect'''
||
||
Réseautique faible latence et haute performance pour tous les noeuds de calcul et le stockage temporaire. <br />
Low-latency high-performance fabric connecting all nodes and temporary storage. <br />
L'architecture de GP2 a été planifiée pour supporter de multiples tâches parallèles jusqu'à 1024 coeurs grâce à une réseautique non bloquante. Les tâches plus grandes que 1024 coeurs ne seront pas aussi bien supportées par la topologie du réseau.
The design of Cedar is to support multiple simultaneous parallel jobs of at least 1024 cores in a fully non-blocking manner. Jobs larger than 1024 cores would be less well-suited for the topology.
|}
|}


Line 58: Line 58:
Calcul Canada n'est présentement pas en mesure de spécifier le modèle de GPU. L'appel d'offre utilisait des NVidia K80 comme minimum.
Calcul Canada n'est présentement pas en mesure de spécifier le modèle de GPU. L'appel d'offre utilisait des NVidia K80 comme minimum.


La capacité attendue de GP2 est de plus de 25 000 coeurs, 900 noeuds et 500 GPUs.
The completed system is expected to have over 25,000 cores, 900 nodes, and 500 GPUs.


L'horaire de livraison et d'installation n'est pas encore déterminé. L'équipe d'acquisition est confiante que le système sera en production au début de l'année d'allocation, le 1er avril 2017.
L'horaire de livraison et d'installation n'est pas encore déterminé. L'équipe d'acquisition est confiante que le système sera en production au début de l'année d'allocation, le 1er avril 2017.


====Nom====
For naming details of the new systems see [[Migration2016:New_System_Names]].
<noinclude>
<noinclude>
</noinclude>
</noinclude>

Revision as of 21:31, 22 November 2016

Other languages:


Cedar (GP2)

CEDAR is a heterogeneous cluster, suitable for a variety of workloads, located at Simon Fraser University. It is named for the Western Red Cedar, B.C.’s official tree and of great spiritual significance to the region's First Nations people. It was previously known as "GP2" and is still identified as such in the 2017 RAC documentation.

System evaluation is not yet completed as of November 2016. Anticipated specifications, based on SFU's RFP and bids received, include the following. This information is not guaranteed and might not be complete. It is provided for planning purposes.

Système de stockage

$HOME

Standard home directory
Not allocated
Small, standard quota
Larger requests should be on $PROJECT

$SCRATCH
Parallel High-performance filesystem

Approximately 4PB usable capacity for temporary (/scratch) storage.
Aggregate performance of approximately 40GB/s. Available to all nodes.
Not allocated
Purged - inactive data will be purged

$PROJECT
External persistent storage

Provided by the NDC.
Available to compute nodes, but not designed for parallel I/O workloads.

High performance interconnect

Low-latency high-performance fabric connecting all nodes and temporary storage.
The design of Cedar is to support multiple simultaneous parallel jobs of at least 1024 cores in a fully non-blocking manner. Jobs larger than 1024 cores would be less well-suited for the topology.

Types de noeuds et leurs caractéristiques

Noeuds de calcul de base: Plus de 500 noeuds 128 Go de mémoire, 16 coeurs/socket, 2 sockets/noeud
Noeuds de calcul de type "large": Plus de 100 noeuds 256 Go de mémoire, 16 coeurs/sockets, 2 sockets/noeud
Noeuds à grande mémoire 512 24 noeuds 512 Go de mémoire, 16 coeurs/socket, 2 sockets/noeud
Noeuds à grande mémoire 1500 24 noeuds 1.5 To de mémoire, 16 coeurs/socket, 2 sockets/noeud
Noeuds GPU de base Plus de 100 noeuds 128 Go de mémoire, 12 coeurs/socket, 2 sockets/noeud, 4 GPUs/noeud, 2 GPUs/socket.
Noeuds GPU "large" Environ 30 noeuds 256 Go de mémoire, 12 coeurs/socket, 2 sockets/noeud, 4 GPUs/noeud, Tous les GPUs sur le même socket
Noeuds à grande mémoire 3000 4 noeuds 3 To de mémoire, 8 coeurs/socket, 4 sockets/noeud

Tous les noeuds ci-dessus auront du stockage local.

Calcul Canada n'est présentement pas en mesure de spécifier le modèle de GPU. L'appel d'offre utilisait des NVidia K80 comme minimum.

The completed system is expected to have over 25,000 cores, 900 nodes, and 500 GPUs.

L'horaire de livraison et d'installation n'est pas encore déterminé. L'équipe d'acquisition est confiante que le système sera en production au début de l'année d'allocation, le 1er avril 2017.