Translations:Storage and file management/12/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
No edit summary
No edit summary
Line 92: Line 92:
<tab name="Béluga">
<tab name="Béluga">
{| class="wikitable" style="font-size: 95%; text-align: center;"
{| class="wikitable" style="font-size: 95%; text-align: center;"
|+Filesystem Characteristics
|+Caractéristiques des systèmes de fichiers
! Filesystem
!  
! Default Quota
! Quota par défaut
! Lustre-based?
! Basé sur Lustre
! Backed up?
! Copié pour sauvegarde
! Purged?
! Purgé
! Available by Default?
! Disponible par défaut
! Mounted on Compute Nodes?
! Monté sur des nœuds de calcul
|-
|-
|Home Space
|/home
|50 GB and 500K files per user<ref>This quota is fixed and cannot be changed.</ref>
|50Go et 500K fichiers par utilisateur<ref>Ce quota est fixe et ne peut être changé.</ref>
|Oui
|Oui
|Oui
|Oui
Line 109: Line 109:
|Oui
|Oui
|-
|-
|Scratch Space
|/scratch
|20 TB and 1M files per user
|20To et 1M fichiers par utilisateur
|Oui
|Oui
|Non
|Non
|Files older than 60 days are purged.<ref>See [[Scratch purging policy]] for more information.</ref>
|les fichiers de plus de 60 jours sont purgés.<ref>Pour plus d'information, voir la [[Scratch purging policy/fr politique de purge automatique]].</ref>
|Oui
|Oui
|Oui
|Oui
|-
|-
|Project Space
|/project
|1 TB and 500k files per group<ref>Project space can be increased to 10 TB per group by a RAS request. The group's sponsoring PI should write to [[technical support]] to make the request.</ref>
|1To et 5M fichiers par groupe<ref> L'espace /project peut être augmenté à 10To par groupe en recourant au service d'accès rapide. La demande doit être faite par le chercheur principal responsable pour le groupe en s'adressant au [[Technical support/fr soutien technique]].</ref>
|Oui
|Oui
|Oui
|Oui
Line 125: Line 125:
|Oui
|Oui
|-
|-
|Nearline Space
|/nearline
|1 TB and 500K files per group
|1To et 500K fichiers par groupe
|Non
|Non
|s.o.
|s.o.
Line 137: Line 137:
<tab name="Niagara">
<tab name="Niagara">
{| class="wikitable"
{| class="wikitable"
! location
!
!colspan="2"| quota
!colspan="2"| Quota
!align="right"| block size
!align="right"| Taille des blocs
! expiration time
! Durée
! backed up
! Copié pour sauvegarde
! on login nodes
! Sur nœuds de connexion
! on compute nodes
! Sur nœuds de calcul
|-
|-
| $HOME
| $HOME
|colspan="2"| 100 GB per user
|colspan="2"| 100Go par utilisateur
|align="right"| 1 MB
|align="right"| 1Mo
|  
|  
| oui
| oui
| oui
| oui
| read-only
| lecture seule
|-
|-
|rowspan="6"| $SCRATCH
|rowspan="6"| $SCRATCH
|colspan="2"| 25 TB per user (dynamic per group)
|colspan="2"| 25To par utilisateur (dynamique pour les groupes)
|align="right" rowspan="6" | 16 MB
|align="right" rowspan="6" | 16Mo
|rowspan="6"| 2 months
|rowspan="6"| 2 mois
|rowspan="6"| no
|rowspan="6"| non
|rowspan="6"| yes
|rowspan="6"| oui
|rowspan="6"| yes
|rowspan="6"| oui
|-
|-
|align="right"|up to 4 users per group
|align="right"|jusqu'à 4 utilisateurs par groupe
|align="right"|50TB
|align="right"|50To
|-
|-
|align="right"|up to 11 users per group
|align="right"|jusqu'à 11 utilisateurs par groupe
|align="right"|125TB
|align="right"|125To
|-
|-
|align="right"|up to 28 users per group
|align="right"|jusqu'à 28 utilisateurs par groupe
|align="right"|250TB
|align="right"|250To
|-
|-
|align="right"|up to 60 users per group
|align="right"|jusqu'à 60 utilisateurs par groupe
|align="right"|400TB
|align="right"|400To
|-
|-
|align="right"|above 60 users per group
|align="right"|plus de 60 utilisateurs par groupe
|align="right"|500TB
|align="right"|500To
|-
|-
| $PROJECT
| $PROJECT
|colspan="2"| by group allocation (RRG or RPP)
|colspan="2"| par allocation de groupe (RGR ou PPR)
|align="right"| 16 MB
|align="right"| 16Mo
|  
|  
| oui
| oui
Line 185: Line 185:
|-
|-
| $ARCHIVE
| $ARCHIVE
|colspan="2"| by group allocation
|colspan="2"| par allocation de groupe
|align="right"|  
|align="right"|  
|
|
| dual-copy
| copie en double
| non
| non
| non
| non
|-
|-
| $BBUFFER
| $BBUFFER
|colspan="2"| 10 TB per user
|colspan="2"| 10To par utilisateur
|align="right"| 1 MB
|align="right"| 1Mo
| very short
| très court
| non
| non
| oui
| oui
Line 201: Line 201:
|}
|}
<ul>
<ul>
<li>[https://docs.scinet.utoronto.ca/images/9/9a/Inode_vs._Space_quota_-_v2x.pdf Inode vs. Space quota (PROJECT and SCRATCH)]</li>
<li>[https://docs.scinet.utoronto.ca/images/9/9a/Inode_vs._Space_quota_-_v2x.pdf Inode vs. Space quota (PROJECT et SCRATCH)]</li>
<li>[https://docs.scinet.utoronto.ca/images/0/0e/Scratch-quota.pdf dynamic quota per group (SCRATCH)]</li>
<li>[https://docs.scinet.utoronto.ca/images/0/0e/Scratch-quota.pdf quota dynamique par groupe (SCRATCH)]</li>
<li>Compute nodes do not have local storage.</li>
<li>Pas de stockage local sur les nœuds de calcul.</li>
<li>Archive(a.k.a. nearline) space is on [https://docs.scinet.utoronto.ca/index.php/HPSS HPSS]</li>
<li>L'espace Archive(ou ''nearline'') se trouve sur [https://docs.scinet.utoronto.ca/index.php/HPSS HPSS].</li>
<li>Backup means a recent snapshot, not an archive of all data that ever was.</li>
<li>La copie de sauvegarde est un instantané récent et non l'archivage complet des données.</li>
<li><code>$BBUFFER</code> stands for [https://docs.scinet.utoronto.ca/index.php/Burst_Buffer Burst Buffer], a faster parallel storage tier for temporary data.</li></ul>
<li><code>$BBUFFER</code> stands for [https://docs.scinet.utoronto.ca/index.php/Burst_Buffer Burst Buffer], a faster parallel storage tier for temporary data.</li></ul>

Revision as of 21:17, 27 August 2019

Information about message (contribute)
This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
Message definition (Storage and file management)
<tabs>
<tab name="Cedar">
{| class="wikitable" style="font-size: 95%; text-align: center;"
|+Filesystem Characteristics 
! Filesystem
! Default Quota
! Lustre-based
! Backed up
! Purged
! Available by Default
! Mounted on Compute Nodes
|-
|Home Space
|50 GB and 500K files per user<ref>This quota is fixed and cannot be changed.</ref>
|Yes
|Yes
|No
|Yes
|Yes
|-
|Scratch Space
|20 TB and 1M files per user
|Yes
|No
|Files older than 60 days are purged.<ref>See [[Scratch purging policy]] for more information.</ref>
|Yes
|Yes
|-
|Project Space
|1 TB and 500K files per group<ref>Project space can be increased to 40 TB per group by a RAS request, subject to the limitations that the minimum project space per quota cannot be less than 1 TB and the sum over all four general-purpose clusters cannot exceed 43 TB. The group's sponsoring PI should write to [[technical support]] to make the request.</ref>
|Yes
|Yes
|No
|Yes
|Yes
|-
|Nearline Space
|2 TB and 5000 files per group
|Yes
|Yes
|No
|Yes
|No
|}
<references />
Starting April 1, 2024, new Rapid Access Service (RAS) policies will allow larger quotas for the project and nearline spaces. For more details, see the "Storage" section at [https://alliancecan.ca/en/services/advanced-research-computing/accessing-resources/rapid-access-service Rapid Access Service].  Quota changes larger than those permitted by RAS will require an application to the annual [https://alliancecan.ca/en/services/advanced-research-computing/accessing-resources/resource-allocation-competition Resource Allocation Competition (RAC)]. 
</tab>
<tab name="Graham">
{| class="wikitable" style="font-size: 95%; text-align: center;"
|+Filesystem Characteristics 
! Filesystem
! Default Quota
! Lustre-based
! Backed up
! Purged
! Available by Default
! Mounted on Compute Nodes
|-
|Home Space
|50 GB and 500K files per user<ref>This quota is fixed and cannot be changed.</ref>
|No
|Yes
|No
|Yes
|Yes
|-
|Scratch Space
|20 TB and 1M files per user
|Yes
|No
|Files older than 60 days are purged.<ref>See [[Scratch purging policy]] for more information.</ref>
|Yes
|Yes
|-
|Project Space
|1 TB and 500K files per group<ref>Project space can be increased to 40 TB per group by a RAS request. The group's sponsoring PI should write to [[technical support]] to make the request.</ref>
|Yes
|Yes
|No
|Yes
|Yes
|-
|Nearline Space
|10 TB and 5000 files per group
|Yes
|Yes
|No
|Yes
|No
|}
<references />
Starting April 1, 2024, new Rapid Access Service (RAS) policies will allow larger quotas for project and nearline spaces. For more details, see the "Storage" section at [https://alliancecan.ca/en/services/advanced-research-computing/accessing-resources/rapid-access-service Rapid Access Service].  Quota changes larger than those permitted by RAS will require an application to the annual [https://alliancecan.ca/en/services/advanced-research-computing/accessing-resources/resource-allocation-competition Resource Allocation Competition (RAC)].  
</tab>
<tab name="Béluga and Narval">
{| class="wikitable" style="font-size: 95%; text-align: center;"
|+Filesystem Characteristics 
! Filesystem
! Default Quota
! Lustre-based
! Backed up
! Purged
! Available by Default
! Mounted on Compute Nodes
|-
|Home Space
|50 GB and 500K files per user<ref>This quota is fixed and cannot be changed.</ref>
|Yes
|Yes
|No
|Yes
|Yes
|-
|Scratch Space
|20 TB and 1M files per user
|Yes
|No
|Files older than 60 days are purged.<ref>See [[Scratch purging policy]] for more information.</ref>
|Yes
|Yes
|-
|Project Space
|1 TB and 500K files per group<ref>Project space can be increased to 40 TB per group by a RAS request. The group's sponsoring PI should write to [[technical support]] to make the request.</ref>
|Yes
|Yes
|No
|Yes
|Yes
|-
|Nearline Space
|1 TB and 5000 files per group
|Yes
|Yes
|No
|Yes
|No
|}
<references />
Starting April 1, 2024, new Rapid Access Service (RAS) policies will allow larger quotas for project and nearline spaces. For more details, see the "Storage" section at [https://alliancecan.ca/en/services/advanced-research-computing/accessing-resources/rapid-access-service Rapid Access Service].  Quota changes larger than those permitted by RAS will require an application to the annual [https://alliancecan.ca/en/services/advanced-research-computing/accessing-resources/resource-allocation-competition Resource Allocation Competition (RAC)].  
</tab>
<tab name="Niagara">
{| class="wikitable"
! location
!colspan="2"| quota
!align="right"| block size
! expiration time
! backed up
! on login nodes
! on compute nodes
|-
| $HOME
|colspan="2"| 100 GB per user
|align="right"| 1 MB

| yes
| yes
| read-only
|-
|rowspan="6"| $SCRATCH
|colspan="2"| 25 TB per user (dynamic per group)
|align="right" rowspan="6" | 16 MB
|rowspan="6"| 2 months
|rowspan="6"| no
|rowspan="6"| yes
|rowspan="6"| yes
|-
|align="right"|up to 4 users per group
|align="right"|50TB
|-
|align="right"|up to 11 users per group
|align="right"|125TB
|-
|align="right"|up to 28 users per group
|align="right"|250TB
|-
|align="right"|up to 60 users per group
|align="right"|400TB
|-
|align="right"|above 60 users per group
|align="right"|500TB
|-
| $PROJECT
|colspan="2"| by group allocation (RRG or RPP)
|align="right"| 16 MB

| yes
| yes
| yes
|-
| $ARCHIVE
|colspan="2"| by group allocation
|align="right"| 
|
| dual-copy
| no
| no
|-
| $BBUFFER
|colspan="2"| 10 TB per user
|align="right"| 1 MB
| very short
| no
| yes
| yes
|}
<ul>
<li>[https://docs.scinet.utoronto.ca/images/9/9a/Inode_vs._Space_quota_-_v2x.pdf Inode vs. Space quota (PROJECT and SCRATCH)]</li>
<li>[https://docs.scinet.utoronto.ca/images/0/0e/Scratch-quota.pdf dynamic quota per group (SCRATCH)]</li>
<li>Compute nodes do not have local storage.</li>
<li>Archive (a.k.a. nearline) space is on [https://docs.scinet.utoronto.ca/index.php/HPSS HPSS]</li>
<li>Backup means a recent snapshot, not an archive of all data that ever was.</li>
<li><code>$BBUFFER</code> stands for [https://docs.scinet.utoronto.ca/index.php/Burst_Buffer Burst Buffer], a faster parallel storage tier for temporary data.</li></ul>

<tabs>

Caractéristiques des systèmes de fichiers
Quota par défaut Basé sur Lustre Copié pour sauvegarde Purgé Disponible par défaut Monté sur des nœuds de calcul
/home 50Go et 500K fichiers par utilisateur[1] Oui Oui Non Oui Oui
/scratch 20To et 1M fichiers par utilisateur Oui Non les fichiers de plus de 60 jours sont purgés.[2] Oui Oui
/project 1To et 5M fichiers par groupe[3] Oui Oui Non Oui Oui
/nearline 2To et 5000 fichiers par groupe Non s.o. Non Oui Non
  1. Ce quota est fixe et ne peut être changé.
  2. Pour plus d'information, voir la Scratch purging policy/fr politique de purge automatique.
  3. L'espace /project peut être augmenté à 10To par groupe en recourant au service d'accès rapide. La demande doit être faite par le chercheur principal responsable pour le groupe en s'adressant au Technical support/fr soutien technique.
Caractéristiques des systèmes de fichiers
Quota par défaut Basé sur Lustre Copié pour sauvegarde Purgé Disponible par défaut Monté sur des nœuds de calcul
/home 50Go et 500K fichiers par utilisateur[1] Non Oui Non Oui Oui
/scratch 20To et 1M fichiers par utilisateur Oui Non les fichiers de plus de 60 jours sont purgés.[2] Oui Oui
/project 1To et 5M fichiers par groupe[3] Oui Oui Non Oui Oui
/nearline 2To et 5000 fichiers par groupe Non s.o. Non Oui Non
  1. Ce quota est fixe et ne peut être changé.
  2. Pour plus d'information, voir la Scratch purging policy/fr politique de purge automatique.
  3. L'espace /project peut être augmenté à 10To par groupe en recourant au service d'accès rapide. La demande doit être faite par le chercheur principal responsable pour le groupe en s'adressant au Technical support/fr soutien technique.
Caractéristiques des systèmes de fichiers
Quota par défaut Basé sur Lustre Copié pour sauvegarde Purgé Disponible par défaut Monté sur des nœuds de calcul
/home 50Go et 500K fichiers par utilisateur[1] Oui Oui Non Oui Oui
/scratch 20To et 1M fichiers par utilisateur Oui Non les fichiers de plus de 60 jours sont purgés.[2] Oui Oui
/project 1To et 5M fichiers par groupe[3] Oui Oui Non Oui Oui
/nearline 1To et 500K fichiers par groupe Non s.o. Non Oui Non
  1. Ce quota est fixe et ne peut être changé.
  2. Pour plus d'information, voir la Scratch purging policy/fr politique de purge automatique.
  3. L'espace /project peut être augmenté à 10To par groupe en recourant au service d'accès rapide. La demande doit être faite par le chercheur principal responsable pour le groupe en s'adressant au Technical support/fr soutien technique.

<tab name="Niagara">

Quota Taille des blocs Durée Copié pour sauvegarde Sur nœuds de connexion Sur nœuds de calcul
$HOME 100Go par utilisateur 1Mo oui oui lecture seule
$SCRATCH 25To par utilisateur (dynamique pour les groupes) 16Mo 2 mois non oui oui
jusqu'à 4 utilisateurs par groupe 50To
jusqu'à 11 utilisateurs par groupe 125To
jusqu'à 28 utilisateurs par groupe 250To
jusqu'à 60 utilisateurs par groupe 400To
plus de 60 utilisateurs par groupe 500To
$PROJECT par allocation de groupe (RGR ou PPR) 16Mo oui oui oui
$ARCHIVE par allocation de groupe copie en double non non
$BBUFFER 10To par utilisateur 1Mo très court non oui oui