Béluga/en: Difference between revisions
(Created page with "{| class="wikitable" |- | Availability : March, 2019 |- | Login node : '''beluga.computecanada.ca''' |- | Globus Endpoint : '''computecanada#beluga-dtn''' |- | Data Transfer N...") |
(Created page with "Béluga is a general purpose cluster designed for a variety of workloads and situated at the [http://www.etsmtl.ca/ École de technologie supérieure] in Montreal. The cluster...") |
||
Line 11: | Line 11: | ||
|} | |} | ||
Béluga | Béluga is a general purpose cluster designed for a variety of workloads and situated at the [http://www.etsmtl.ca/ École de technologie supérieure] in Montreal. The cluster is named in honour of the St. Lawrence River's [https://en.wikipedia.org/wiki/Beluga_whale Beluga whale] population. | ||
=Particularités= | =Particularités= |
Revision as of 14:22, 26 March 2019
Availability : March, 2019 |
Login node : beluga.computecanada.ca |
Globus Endpoint : computecanada#beluga-dtn |
Data Transfer Node (rsync, scp, sftp,...) : beluga.computecanada.ca |
Béluga is a general purpose cluster designed for a variety of workloads and situated at the École de technologie supérieure in Montreal. The cluster is named in honour of the St. Lawrence River's Beluga whale population.
Particularités
Notre politique veut que les nœuds de calcul de Béluga n'aient pas accès à l'internet. Pour y faire exception, contactez le soutien technique en expliquant ce dont vous avez besoin et pourquoi. Notez que l'outil crontab
n'est pas offert.
Chaque tâche devrait être d'une durée d’au moins une heure et un utilisateur ne peut avoir plus de 1000 tâches (en exécution et en attente) à la fois.
Stockage
HOME Système de fichiers Lustre, 105 To d’espace au total |
|
SCRATCH Système de fichiers Lustre, 2.6 Po d’espace au total |
|
PROJECT Système de fichiers Lustre, 8.9 Po d’espace au total |
|
Pour les transferts de données par Globus, on devrait utiliser le point de chute computecanada#beluga-dtn
, alors que pour les outils comme rsync et scp, on peut utiliser un nœud
de connexion.
Réseautique haute performance
Le réseau Infiniband EDR (100 Gb/s) de Mellanox relie tous les nœuds de la grappe. Un commutateur central de 324 ports rassemble les connexions des îlots avec un facteur de blocage maximum de 5:1. Les serveurs de stockage sont branchés avec une interconnexion non bloquante. L’architecture permet de multiples tâches parallèles avec jusqu’à 640 cœurs (voire plus) grâce à une réseautique non bloquante. Pour les tâches plus imposantes, le facteur de blocage est de 5:1; même pour les tâches exécutées sur plusieurs îlots, l’interconnexion est de haute performance.
Types et caractéristiques des nœuds
Nombre | Type | Cœurs | Mémoire | Matériel |
---|---|---|---|---|
172 | small 96G | 40 | 93G ou 96000M | deux Intel Gold 6148 Skylake à 2.4 GHz; SSD de 480Go à 6Gbps |
516 | base 192G | 40 | 187G ou 192000M | mêmes que small |
12 | large 768G | 40 | 750G ou 768000M | mêmes que small |
172 | GPU | 40 | 187G ou 192000M | mêmes que small, mais quatre GPU NVIDIA V100 Volta (SXM2, mémoire de 16 Go HBM2), SSD NVMe de 1.6 To |