Translations:Storage and file management/12/fr
Jump to navigation
Jump to search
<tabs>
Quota par défaut | Basé sur Lustre | Copié pour sauvegarde | Purgé | Disponible par défaut | Monté sur des nœuds de calcul | |
---|---|---|---|---|---|---|
/home | 50Go et 500K fichiers par utilisateur[1] | Oui | Oui | Non | Oui | Oui |
/scratch | 20To et 1M fichiers par utilisateur | Oui | Non | les fichiers de plus de 60 jours sont purgés.[2] | Oui | Oui |
/project | 1To et 5M fichiers par groupe[3] | L'espace /project peut être augmenté à 10To par groupe en recourant au service d'accès rapide. La demande doit être faite par le chercheur principal responsable pour le groupe en s'adressant au soutien technique. | Oui | Non | Oui | Oui |
Nearline Space | 2 TB and 5000 files per group | Non | N/A | Non | Oui | Non |
- ↑ Ce quota est fixe et ne peut être changé.
- ↑ Pour plus d'information, voir la Scratch purging policy/fr politique de purge automatique.
- ↑ L'espace /project peut être augmenté à 10To par groupe en recourant au service d'accès rapide. La demande doit être faite par le chercheur principal responsable pour le groupe en s'adressant au Technical support/fr soutien technique.
Filesystem | Default Quota | Lustre-based? | Backed up? | Purged? | Available by Default? | Mounted on Compute Nodes? |
---|---|---|---|---|---|---|
Home Space | 50 GB and 500K files per user[1] | No | Oui | Non | Oui | Oui |
Scratch Space | 20 TB and 1M files per user | Oui | Non | Files older than 60 days are purged.[2] | Oui | Oui |
Project Space | 1 TB and 500k files per group[3] | Oui | Oui | Non | Oui | Oui |
Nearline Space | 2 TB and 5000 files per group | No | N/D | Non | Oui | Non |
- ↑ This quota is fixed and cannot be changed.
- ↑ See Scratch purging policy for more information.
- ↑ Project space can be increased to 10 TB per group by a RAS request. The group's sponsoring PI should write to technical support to make the request.
Filesystem | Default Quota | Lustre-based? | Backed up? | Purged? | Available by Default? | Mounted on Compute Nodes? |
---|---|---|---|---|---|---|
Home Space | 50 GB and 500K files per user[1] | Oui | Oui | Non | Oui | Oui |
Scratch Space | 20 TB and 1M files per user | Oui | Non | Files older than 60 days are purged.[2] | Oui | Oui |
Project Space | 1 TB and 500k files per group[3] | Oui | Oui | Non | Oui | Oui |
Nearline Space | 1 TB and 500K files per group | Non | N/D | Non | Oui | Non |
- ↑ This quota is fixed and cannot be changed.
- ↑ See Scratch purging policy for more information.
- ↑ Project space can be increased to 10 TB per group by a RAS request. The group's sponsoring PI should write to technical support to make the request.
<tab name="Niagara">
location | quota | block size | expiration time | backed up | on login nodes | on compute nodes | |
---|---|---|---|---|---|---|---|
$HOME | 100 GB per user | 1 MB | oui | oui | read-only | ||
$SCRATCH | 25 TB per user (dynamic per group) | 16 MB | 2 months | no | yes | yes | |
up to 4 users per group | 50TB | ||||||
up to 11 users per group | 125TB | ||||||
up to 28 users per group | 250TB | ||||||
up to 60 users per group | 400TB | ||||||
above 60 users per group | 500TB | ||||||
$PROJECT | by group allocation (RRG or RPP) | 16 MB | oui | oui | oui | ||
$ARCHIVE | by group allocation | dual-copy | non | non | |||
$BBUFFER | 10 TB per user | 1 MB | very short | non | oui | oui |
- Inode vs. Space quota (PROJECT and SCRATCH)
- dynamic quota per group (SCRATCH)
- Compute nodes do not have local storage.
- Archive(a.k.a. nearline) space is on HPSS
- Backup means a recent snapshot, not an archive of all data that ever was.
$BBUFFER
stands for Burst Buffer, a faster parallel storage tier for temporary data.