Hélios/en: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
(Updating to match new version of source page)
(Created page with "In this context, '''you must transfer your files from the old to the new filesystem'''. We suggest you use Globus from endpoint '''computecanada#colosse''' to0 endpoint ''...")
Line 21: Line 21:
* The modules system and the software are updated.
* The modules system and the software are updated.


Pour cette migration, '''vous devrez transférer vos fichiers de l'ancien système de fichiers vers le nouveau'''. Pour ce faire, nous vous suggérons d'utiliser [[Globus/fr|Globus]] entre les points de chute '''computecanada#colosse''' vers '''computecanada#helios-dtn'''.
In this context, '''you must transfer your files from the old to the new filesystem'''. We suggest you use [[Globus]] from endpoint '''computecanada#colosse''' to0 endpoint '''computecanada#helios-dtn'''.


=Particularités=
=Particularités=

Revision as of 18:24, 13 January 2020

Other languages:
Availability: March 2014
Login node: helios3.calculquebec.ca
Globus endpoint: computecanada#helios-dtn
Data transfer node (rsync, scp, sftp,...): helios3.calculquebec.ca

Hélios is a supercomputer with general purpose graphics processor nodes (GPGPU) that was installed in Université Laval's computing centre in the spring of 2014. The server was purchased with funds from researchers at Laval and Montreal universities, as well as funds from Calcul Québec. Until the commissioning of Cedar and Graham, Helios had been the largest GPU deployment administered by Compute Canada, both in terms of computing power and number of GPUs.

Transferring your data

As of January 2020, Hélios is migrating to the new Compute Canada standards.

  • Connection identifiers are migrated from Calcul Québec to Compute Canada;
  • Scheduling is migrated from Moab to Slurm;
  • Filesystems are reorganised to conform to the structure used on the other national clusters;
  • The modules system and the software are updated.

In this context, you must transfer your files from the old to the new filesystem. We suggest you use Globus from endpoint computecanada#colosse to0 endpoint computecanada#helios-dtn.

Particularités

Notre politique veut que les nœuds de calcul de Hélios n'aient pas accès à l'internet. Pour y faire exception, contactez le soutien technique en expliquant ce dont vous avez besoin et pourquoi. Notez que l'outil crontab n'est pas offert.

Chaque tâche devrait être d'une durée d’au moins une heure (au moins cinq minutes pour les tâches de test) et un utilisateur ne peut avoir plus de 1000 tâches (en exécution et en attente) à la fois. La durée maximale d'une tâche est 7 jours (168 heures).

Sauvegardes

Contrairement aux nouvelles grappes nationales, il n'y a pas de sauvegarde des systèmes de fichiers d'Hélios. Vous devez donc conserver vos propres copies en lieu sûr.

Jupyter

En plus de l'interface d'accès traditionnelle via SSH, Hélios propose une interface JupyterHub pour accéder à l'infrastructure. Pour y accéder, connectez-vous via l'adresse https://jupyterhub.helios.calculquebec.ca/hub/spawn.

Environnement logiciel

Hélios utilise la version AVX de l'environnement logiciel de Calcul Canada. Vous pouvez trouver la liste des logiciels disponibles sous l'onglet AVX de la page Logiciels disponibles.

GPUs disponibles

Hélios possède deux types de GPUs : NVIDIA K20 et NVIDIA K80. Pour spécifier l'un ou l'autre des deux types, utilisez les options suivantes dans votre script de soumission :

 #SBATCH --gres=gpu:k20:1

or

 #SBATCH --gres=gpu:k80:1

Stockage

Hélios a un seul système de fichiers Lustre de 392To. Celui-ci est cependant divisé en trois espaces avec des quotas distincts, tel que sur les nouvelles grappes de calcul de Calcul Canada. Il n'y a aucune sauvegarde du système de fichiers.

HOME
Système de fichiers Lustre
  • Cet espace est petit et ne peut pas être agrandi : vous devrez utiliser votre espace project pour les grands besoins en stockage.
  • 50 Go d’espace et 500K fichiers par utilisateur.
SCRATCH
Système de fichiers Lustre
  • Grand espace pour stocker les fichiers temporaires pendant les calculs.
  • 20 To d’espace et 1M fichiers par utilisateur.
PROJECT
Système de fichiers Lustre
  • Cet espace est conçu pour le partage de données entre membres d'un groupe et pour le stockage de beaucoup de données.
  • 1 To d’espace et 500K fichiers par groupe.

Pour les transferts de données par Globus, on devrait utiliser le point de chute computecanada#helios-dtn, alors que pour les outils comme rsync et scp, on peut utiliser un nœud de connexion.

Caractéristiques des nœuds

nœuds cœurs mémoire disponible CPU stockage GPU
15 20 110G 2 x Intel Xeon Ivy Bridge E5-2670 v2 @ 2.5 GHz 1 x HDD de 2T 8 x NVidia K20 (mémoire 5G)
8 24 256G 2 x Intel Xeon Ivy Bridge E5-2697 v2 @ 2.7 GHz 2 x SSD de 180G (330G utilisable) 8 x NVidia K80 (16 GPUs, mémoire de 12G/GPU)