Narval/en: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
(Created page with "*Large space for storing temporary files during computations. *No backup system in place. *20 TB of space and 1M files per user. *There is an Scratch_purging_policy | au...")
(Created page with "|- | PROJECT <br> Lustre filesystem, ~15 PB of space ||")
Line 44: Line 44:


|-
|-
| PROJECT <br> Système de fichiers Lustre, ~15 Po d’espace au total ||
| PROJECT <br> Lustre filesystem, ~15 PB of space ||


* Cet espace est conçu pour le partage de données entre membres d'un groupe et pour le stockage de beaucoup de données.  
* Cet espace est conçu pour le partage de données entre membres d'un groupe et pour le stockage de beaucoup de données.  

Revision as of 17:12, 3 August 2021

Other languages:
Availability: September, 2021
Login node: narval.computecanada.ca
Globus endpoint: computecanada#narval-dtn
Data transfer node (rsync, scp, sftp,...): narval.computecanada.ca

Narval is a general purpose cluster designed for a variety of workloads and situated at the École de technologie supérieure in Montreal. The cluster is named in honour of the St. Lawrence River's Narwhal population.

Site-specific policies

By policy, Narval's compute nodes cannot access the internet. If you need an exception to this rule, contact technical support with information about the IP address, port number(s) and protocol(s) needed as well as the duration and a contact person.

Crontab is not offered on Narval.

Each job on Narval should have a duration of at least one hour (five minutes for test jobs) and a user cannot have more than 1000 jobs, running and queued, at any given moment. The maximum duration for a job on Narval is 7 days (168 hours).

Storage

HOME
Lustre filesystem, ~100 TB of space
  • Location of home directories, each of which has a small fixed quota.
  • You should use the project space for larger storage needs.
  • 50 GB of space and 500K files per user.
  • There is a daily backup of the home directories.
SCRATCH
Lustre filesystem, ~5 PB of space
  • Large space for storing temporary files during computations.
  • No backup system in place.
  • 20 TB of space and 1M files per user.
PROJECT
Lustre filesystem, ~15 PB of space
  • Cet espace est conçu pour le partage de données entre membres d'un groupe et pour le stockage de beaucoup de données.
  • 1 To d’espace et 500K fichiers par groupe.
  • Il y a une sauvegarde automatique une fois par jour.

Au tout début de la présente page, un tableau indique plusieurs adresses de connexion. Pour les transferts de données par Globus, il faut utiliser le Point de chute Globus. Par contre, pour les outils comme rsync et scp, il faut utiliser l'adresse du Nœud de copie.

Réseautique haute performance

Le réseau InfiniBand HDR de Mellanox relie tous les nœuds de la grappe. Chaque commutateur de 40 ports HDR (200 Gb/s) permet de connecter ensemble jusqu'à 66 nœuds en HDR100 (100 Gb/s) avec 33 liens HDR divisés en deux (2) par des câbles spéciaux. Les sept (7) liens HDR restants servent à connecter le commutateur d'un cabinet à chacun des sept (7) commutateurs HDR du réseau InfiniBand central. Les îlots de nœuds sont donc connectés avec un facteur de blocage maximum de 33:7 (4.7:1). Par contre, les serveurs de stockage sont branchés avec une interconnexion non bloquante.

En pratique, les cabinets de Narval contiennent des îlots de 48 ou 56 nœuds CPU réguliers. Il est donc possible d'exécuter des tâches parallèles utilisant jusqu’à 3584 cœurs et une réseautique non bloquante. Pour des tâches plus imposantes ou plus fragmentées sur le réseau, le facteur de blocage est de 4.7:1. L’interconnexion reste malgré tout de haute performance.

Caractéristiques des nœuds

nœuds cœurs mémoire disponible CPU stockage GPU
1109 64 ~256000M 2 x AMD Rome 7532 @ 2.40 GHz 256M cache L3 1 x SSD de 960G -
33 ~2048000M
158 48 ~512000M 2 x AMD Milan 7413 @ 2.65 GHz 128M cache L3 1 x SSD de 3.84T 4 x NVidia A100 (mémoire 40G)