Cedar/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
(Created page with "<noinclude>")
(Created page with "{| class="wikitable sortable" |- | '''$HOME''' || Répertoire d'accueil standard<br /> Non alloué<br /> Faibles quotas par défaut<br /> Le stockage de plus grande ampleur de...")
Line 13: Line 13:
|-
|-
| '''$HOME''' ||
| '''$HOME''' ||
Standard home directory<br />
Répertoire d'accueil standard<br />
Not allocated<br />
Non alloué<br />
Small, standard quota<br />
Faibles quotas par défaut<br />
Larger requests should be on $PROJECT
Le stockage de plus grande ampleur devrait être sur $PROJECT
|-
|-
| '''$SCRATCH<br />Parallel High-performance filesystem''' ||
| '''$SCRATCH<br />Système de fichiers parallèle de haute performance''' ||
Approximately 4PB usable capacity for temporary (<code>/scratch</code>) storage.<br />
Approximativement 4Po d'espace utilisable pour du stockage temporaire (<code>/scratch</code>).<br />
Aggregate performance of approximately 40GB/s.  Available to all nodes.<br />
Performance globale d'environ 40 Go/s.  Visible sur tous les noeuds.<br />
Not allocated<br />
Non alloué<br />
Purged - inactive data will be purged
Purgé - les données inactives seront effacées
|-
|-
|'''$PROJECT<br />External persistent storage'''
|'''$PROJECT<br />Stockage persistant'''
||
||
See below - provided by the NDC.<br />
See below - provided by the NDC.<br />
Line 31: Line 31:
|'''High performance interconnect'''
|'''High performance interconnect'''
||
||
Low-latency high-performance fabric connecting all nodes and temporary storage. <br />
Réseautique faible latence et haute performance pour tous les noeuds de calcul et le stockage temporaire. <br />
The design of GP2 is to support multiple simultaneous parallel jobs of at least 1024 cores in a fully non-blocking manner. Jobs larger than 1024 cores would be less well-suited for the topology.
L'architecture de GP2 a été planifiée pour supporter de multiples tâches parallèles jusqu'à 1024 coeurs grâce à une réseautique non bloquante. Les tâches plus grandes que 1024 coeurs ne seront pas aussi bien supportées par la topologie du réseau.
|}
|}



Revision as of 14:20, 17 November 2016

Other languages:


GP2 (SFU)

Introduction

L'évaluation du système GP2 n'est pas encore complétée en date du début novembre 2016. Les spécifications anticipées, basées sur l'appel d'offre et les offres reçues sont ci-dessous. Ces informations ne sont pas garanties et pourraient être incomplètes. Elles sont fournies dans une optique de planification.

Système de stockage

$HOME

Répertoire d'accueil standard
Non alloué
Faibles quotas par défaut
Le stockage de plus grande ampleur devrait être sur $PROJECT

$SCRATCH
Système de fichiers parallèle de haute performance

Approximativement 4Po d'espace utilisable pour du stockage temporaire (/scratch).
Performance globale d'environ 40 Go/s. Visible sur tous les noeuds.
Non alloué
Purgé - les données inactives seront effacées

$PROJECT
Stockage persistant

See below - provided by the NDC.
Available to compute nodes, but not designed for parallel i/o workloads.

High performance interconnect

Réseautique faible latence et haute performance pour tous les noeuds de calcul et le stockage temporaire.
L'architecture de GP2 a été planifiée pour supporter de multiples tâches parallèles jusqu'à 1024 coeurs grâce à une réseautique non bloquante. Les tâches plus grandes que 1024 coeurs ne seront pas aussi bien supportées par la topologie du réseau.

Node types and characteristics:

"Base" compute nodes: Over 500 nodes 128GB of memory each
"Large" compute nodes: Over 100 nodes 256GB of memory each
"Bigmem512" 24 nodes 512 GB of memory each
"Bigmem1500" nodes 24 nodes 1.5TB of memory each

All of the above nodes will have 16 cores/socket (32 cores/node), with an anticipated frequency of 2.1Ghz.

"GPU base" nodes: Over 100 nodes with 4 GPUs each. 12 cores/socket (24 cores/node) with an anticipated frequency of 2.2Ghz. GPUs on a dual PCI root.
"GPU large" nodes. Approximately 30 nodes same configuration as "GPU base," but a single PCI root.
"Bigmem3000" nodes 4 nodes each with 3TB of memory. These are 4-socket nodes with 8 cores/socket.

All of the above nodes will have local (on-node) storage.

Compute Canada is not currently able to disclose the specific GPU model or specifications. The RFP used NVIDIA K80 as a baseline specification.

The total GP2 system is anticipated to have over 25,000 cores, 900 nodes, and 500 GPUs.

The delivery and installation schedule is not yet known, but the procurement team has confidence that the system will be in production for the start of the allocations year on April 1, 2017.

Name