Abaqus/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
(Created page with "Pour écrire les données de redémarrage en incréments de N=12, le fichier en entrée doit contenir *RESTART, WRITE, OVERLAY, FREQUENCY=12 Pour écrire les données de redémarrage pour un total de 12 incréments, entrez plutôt *RESTART, WRITE, OVERLAY, NUMBER INTERVAL=12, TIME MARKS=NO Pour vérifier l'information complète sur le redémarrage egrep -i "step|start" testst*.com testst*.msg testst*.sta")
(Updating to match new version of source page)
Tags: Mobile edit Mobile web edit
 
(116 intermediate revisions by 2 users not shown)
Line 14: Line 14:
}}
}}


<div class="mw-translate-fuzzy">
Si votre licence n'est pas configurée pour une grappe en particulier, les administrateurs de systèmes des deux parties devront effectuer certaines modifications. Ceci est nécessaire pour que les ports flexlm et TCP de votre serveur Abaqus puissent être rejoints par tous les nœuds de calcul quand vos tâches dans la queue seront exécutées. Pour que nous puissions vous assister dans cette tâche, écrivez au [[Technical support/fr|soutien technique]] en indiquant
Si votre licence n'est pas configurée pour une grappe en particulier, les administrateurs de systèmes des deux parties devront effectuer certaines modifications. Ceci est nécessaire pour que les ports flexlm et TCP de votre serveur Abaqus puissent être rejoints par tous les nœuds de calcul quand vos tâches dans la queue seront exécutées. Pour que nous puissions vous assister dans cette tâche, écrivez au [[Technical
*le numéro du port flexlm
*le numéro du port flexlm
*le numéro du port statique
*le numéro du port statique
*l'adresse IP de votre serveur de licence Abaqus.
*l'adresse IP de votre serveur de licence Abaqus.
En retour vous recevrez une liste d'adresses IP et votre administrateur de système pourra ouvrir les pare-feu de votre serveur local pour que la grappe puisse se connecter via les deux ports. Une entente spéciale doit habituellement être négociée et signée avec SIMULIA pour qu'une telle licence puisse être utilisée à distance avec notre matériel.
En retour vous recevrez une liste d'adresses IP et votre administrateur de système pourra ouvrir les pare-feu de votre serveur local pour que la grappe puisse se connecter via les deux ports. Une entente spéciale doit habituellement être négociée et signée avec SIMULIA pour qu'une telle licence puisse être utilisée à distance avec notre matériel.
</div>


= Soumettre une tâche sur une grappe =
= Soumettre une tâche sur une grappe =
Vous trouverez ci-dessous des prototypes de scripts Slurm pour soumettre des simulations parallèles sur un ou plusieurs nœuds de calcul en utilisant des fils et MPI. Dans la plupart des cas, il suffira d'utiliser un des scripts du répertoire de projet dans une des sections pour un nœud simple. Dans la dernière ligne des scripts, l'argument <code>memory=</code> est optionnel et sert aux tâches qui demandent beaucoup de mémoire ou qui posent problème; la valeur de déplacement de 3072Mo pourrait nécessiter un ajustement. Pour obtenir la liste des arguments en ligne de commande, chargez un module Abaqus et lancez <code>abaqus -help | less</code>.
Vous trouverez ci-dessous des prototypes de scripts Slurm pour soumettre des simulations parallèles sur un ou plusieurs nœuds de calcul en utilisant des fils et MPI. Dans la plupart des cas, il suffira d'utiliser un des scripts du répertoire de projet dans une des sections pour un nœud simple. Dans la dernière ligne des scripts, l'argument <code>memory=</code> est optionnel et sert aux tâches qui demandent beaucoup de mémoire ou qui posent problème; la valeur de déplacement de 3072Mo (<i>offset</i>) pourrait nécessiter un ajustement. Pour obtenir la liste des arguments en ligne de commande, chargez un module Abaqus et lancez <code>abaqus -help | less</code>.


Le <i>script du répertoire de projet</i> sous le premier onglet devrait suffire pour les tâches qui utilisent un nœud simple et qui ont une durée de moins d'une journée. Par contre, pour les tâches qui utilisent un nœud simple et qui ont une durée de plus d'une journée, vous devriez utiliser un des scripts de redémarrage. Dans le cas des tâches qui créent de gros fichiers de redémarrage, il est préférable que l'écriture se fasse sur le disque local avec la variable d'environnement SLURM_TMPDIR qui est utilisée dans les scripts sous les derniers onglets des sections Analyse standard et Analyse explicite. Les scripts de redémarrage continueront les tâches qui ont été terminées pour une quelconque raison. Ceci peut se produire si la tâche atteint la durée d'exécution maximum demandée avant d'être complète et qu'elle est tuée par la queue, ou si le nœud de calcul plante en raison d'un problème de matériel inattendu. D'autres types de redémarrage sont possibles en modifiant davantage le fichier d'entrée (non documentés ici) pour poursuivre une tâche ayant des étapes additionnelles ou en changeant l'analyse (consultez la documentation pour les détails particuliers à la version).
Le <i>script du répertoire de projet</i> sous le premier onglet devrait suffire pour les tâches qui utilisent un nœud simple et qui ont une durée de moins d'une journée. Par contre, pour les tâches qui utilisent un nœud simple et qui ont une durée de plus d'une journée, vous devriez utiliser un des scripts de redémarrage. Dans le cas des tâches qui créent de gros fichiers de redémarrage, il est préférable que l'écriture se fasse sur le disque local avec la variable d'environnement SLURM_TMPDIR qui est utilisée dans les scripts sous les derniers onglets des sections <i>Analyse standard</i> et <i>Analyse explicite</i>. Les scripts de redémarrage continueront les tâches qui ont été terminées pour une quelconque raison. Ceci peut se produire si la tâche atteint la durée d'exécution maximum demandée avant d'être complète et qu'elle est tuée par la queue, ou si le nœud de calcul plante en raison d'un problème de matériel inattendu. D'autres types de redémarrage sont possibles en modifiant davantage le fichier d'entrée (non documentés ici) pour poursuivre une tâche ayant des étapes additionnelles ou en changeant l'analyse (consultez la documentation pour les détails particuliers à la version).


Les tâches qui exigent beaucoup de mémoire ou beaucoup de ressources de calcul (plus que la capacité d'un nœud simple) devraient utiliser les scripts MPI dans les sections pour nœuds multiples afin de distribuer le calcul sur un ensemble de nœuds arbitraires déterminé automatiquement par l'ordonnanceur. Avant de lancer des tâches de longue durée, il est recommandé d'exécuter de courts tests présentant peu de scalabilité pour déterminer la durée réelle d'exécution (et les exigences en mémoire) en fonction du nombre optimal de cœurs (2, 4, 8, etc.).  
Les tâches qui exigent beaucoup de mémoire ou beaucoup de ressources de calcul (plus que la capacité d'un nœud simple) devraient utiliser les scripts MPI dans les sections pour nœuds multiples afin de distribuer le calcul sur un ensemble de nœuds arbitraires déterminé automatiquement par l'ordonnanceur. Avant de lancer des tâches de longue durée, il est recommandé d'exécuter de courts tests présentant peu de scalabilité pour déterminer la durée réelle d'exécution (et les exigences en mémoire) en fonction du nombre optimal de cœurs (2, 4, 8, etc.).  
Line 33: Line 31:


=== Scripts pour un nœud simple ===  
=== Scripts pour un nœud simple ===  
<tabs>
<tabs>
<tab name="project directory script">
<tab name="script du répertoire de projet">
{{File
{{File
   |name="scriptsp1.txt"
   |name="scriptsp1.txt"
Line 40: Line 39:
   |contents=
   |contents=
#!/bin/bash
#!/bin/bash
#SBATCH --account=def-group    # Specify account
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # Specify days-hrs:mins
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --cpus-per-task=4      # Specify number of cores
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs
#SBATCH --mem=8G               # Specify total memory > 5G
#SBATCH --mem=8M               # indiquer la mémoire totale > 5M
#SBATCH --nodes=1              # Do not change !
#SBATCH --nodes=1              # ne pas modifier


module load StdEnv/2020        # Latest version
module load StdEnv/2020        # plus récente version installée
module load abaqus/2021        # Latest version
module load abaqus/2021        # plus récente version installée


#module load StdEnv/2016      # Uncomment to use
#module load StdEnv/2016      # supprimer le commentaire pour utiliser la commande
#module load abaqus/2020      # Uncomment to use
#module load abaqus/2020      # supprimer le commentaire pour utiliser la commande


unset SLURM_GTIDS
unset SLURM_GTIDS
Line 62: Line 61:
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
}}
}}
Pour écrire les données de redémarrage en incréments de N=12, le fichier en entrée doit contenir
Pour écrire les données de redémarrage en incréments de N=12, le fichier en entrée doit contenir
  *RESTART, WRITE, OVERLAY, FREQUENCY=12
  *RESTART, WRITE, OVERLAY, FREQUENCY=12
Line 70: Line 70:
Certaines simulations peuvent être améliorées en ajoutant au bas du script la commande Abaqus
Certaines simulations peuvent être améliorées en ajoutant au bas du script la commande Abaqus
  order_parallel=OFF
  order_parallel=OFF
</tab>
</tab>
<tab name="project directory restart script">
<tab name="script de redémarrage, répertoire de projet">
{{File
{{File
   |name="scriptsp2.txt"
   |name="scriptsp2.txt"
Line 77: Line 78:
   |contents=
   |contents=
#!/bin/bash
#!/bin/bash
#SBATCH --account=def-group    # Specify account
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # Specify days-hrs:mins
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --cpus-per-task=4      # Specify number of cores
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs
#SBATCH --mem=8G              # Specify total memory > 5G
#SBATCH --mem=8G              # indiquer la mémoire totale > 5M
#SBATCH --nodes=1              # Do not change !
#SBATCH --nodes=1              # ne pas modifier
 
module load StdEnv/2020        # plus récente version installée
module load abaqus/2021        # plus récente version installée


module load abaqus/2021
unset SLURM_GTIDS
unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
export MPI_IC_ORDER='tcp'
Line 94: Line 97:
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
}}
}}
Le fichier en entrée pour le redémarrage doit contenir
Le fichier en entrée pour le redémarrage doit contenir
  *HEADING
  *HEADING
  *RESTART, READ
  *RESTART, READ
</tab>
</tab>
<tab name="temporary directory script">
<tab name="script du répertoire temporaire">
{{File
{{File
   |name="scriptst1.txt"
   |name="scriptst1.txt"
Line 104: Line 109:
   |contents=
   |contents=
#!/bin/bash
#!/bin/bash
#SBATCH --account=def-group    # Specify account
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # Specify days-hrs:mins
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --cpus-per-task=4      # Specify number of cores
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs
#SBATCH --mem=8G              # Specify total memory > 5G
#SBATCH --mem=8G              # indiquer la mémoire totale > 5M
#SBATCH --nodes=1              # Do not change !
#SBATCH --nodes=1              # ne pas modifier


module load abaqus/2021
module load StdEnv/2020        # plus récente version installée
module load abaqus/2021       # plus récente version installée


unset SLURM_GTIDS
unset SLURM_GTIDS
Line 131: Line 137:
cp -f * $SLURM_SUBMIT_DIR
cp -f * $SLURM_SUBMIT_DIR
}}
}}
Pour écrire les données de redémarrage en incréments de N=12, le fichier en entrée doit contenir
Pour écrire les données de redémarrage en incréments de N=12, le fichier en entrée doit contenir
  *RESTART, WRITE, OVERLAY, FREQUENCY=12
  *RESTART, WRITE, OVERLAY, FREQUENCY=12
Line 137: Line 144:
Pour vérifier l'information complète sur le redémarrage
Pour vérifier l'information complète sur le redémarrage
  egrep -i "step|start" testst*.com testst*.msg testst*.sta
  egrep -i "step|start" testst*.com testst*.msg testst*.sta
</tab>
</tab>
<tab name="temporary directory restart script">
<tab name="script de redémarrage, répertoire temporaire">
{{File
{{File
   |name="scriptst2.txt"
   |name="scriptst2.txt"
Line 144: Line 152:
   |contents=
   |contents=
#!/bin/bash
#!/bin/bash
#SBATCH --account=def-group    # Specify account
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # Specify days-hrs:mins
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --cpus-per-task=4      # Specify number of cores
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs
#SBATCH --mem=8G              # Specify total memory > 5G
#SBATCH --mem=8G              # indiquer la mémoire totale > 5M
#SBATCH --nodes=1              # Do not change !
#SBATCH --nodes=1              # ne pas modifier


module load abaqus/2021
module load StdEnv/2020        # plus récente version installée
module load abaqus/2021       # plus récente version installée


unset SLURM_GTIDS
unset SLURM_GTIDS
Line 172: Line 181:
cp -f testst2* $SLURM_SUBMIT_DIR
cp -f testst2* $SLURM_SUBMIT_DIR
}}
}}
Le fichier en entrée pour le redémarrage doit contenir
Le fichier en entrée pour le redémarrage doit contenir
  *HEADING
  *HEADING
  *RESTART, READ
  *RESTART, READ
</tab>
</tab>
</tabs>
</tabs>
Line 180: Line 191:
=== Script pour nœuds multiples ===
=== Script pour nœuds multiples ===
Si vous disposez d'une licence qui vous permet d'exécuter des tâches nécessitant beaucoup de mémoire et de calcul, le script suivant pourra effectuer le calcul avec MPI en utilisant un ensemble de nœuds arbitraires idéalement déterminé automatiquement par l'ordonnanceur. Un script modèle pour redémarrer des tâches sur nœuds multiples n'est pas fourni car son utilisation présente des limitations supplémentaires.
Si vous disposez d'une licence qui vous permet d'exécuter des tâches nécessitant beaucoup de mémoire et de calcul, le script suivant pourra effectuer le calcul avec MPI en utilisant un ensemble de nœuds arbitraires idéalement déterminé automatiquement par l'ordonnanceur. Un script modèle pour redémarrer des tâches sur nœuds multiples n'est pas fourni car son utilisation présente des limitations supplémentaires.


{{File
{{File
Line 186: Line 198:
   |contents=
   |contents=
!/bin/bash
!/bin/bash
#SBATCH --account=def-group    # Specify account
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # Specify days-hrs:mins
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
# SBATCH --nodes=2            # Best to leave commented
# SBATCH --nodes=2            # préférable de laisser en commentaire
#SBATCH --ntasks=8            # Specify number of cores
#SBATCH --ntasks=8            # indiquer le nombre de cœurs
#SBATCH --mem-per-cpu=16G      # Specify memory per core
#SBATCH --mem-per-cpu=16G      # indiquer la mémoire par cœur
#SBATCH --cpus-per-task=1      # Do not change !
#SBATCH --cpus-per-task=1      # ne pas modifier


module load abaqus/2021
module load StdEnv/2020        # plus récente version installée
module load abaqus/2021       # plus récente version installée


unset SLURM_GTIDS
unset SLURM_GTIDS
Line 214: Line 227:
}}
}}


== Explicit analysis ==
==Analyse explicite==
Abaqus solvers support thread-based and mpi-based parallelization. Scripts for each type are provided below for running explicit analysis type jobs on single or multiple nodes respectively. Template scripts to perform multi-node job restarts are not currently provided pending further testing.
Les solveurs prennent en charge la parallélisation avec fils et avec MPI. Des scripts pour chaque mode sont présentés sous les onglets pour l'utilisation d'un nœud simple et celle de nœuds multiples. Des modèles de scripts pour redémarrer une tâche qui utilise des nœuds multiples nécessitent plus de tests et ne sont pas présentés pour l'instant.
 
=== Scripts pour un nœud simple ===


=== Single node computing ===


<tabs>
<tabs>
<tab name="project directory script">
<tab name="script du répertoire de projet">
{{File
{{File
   |name="scriptep1.txt"
   |name="scriptep1.txt"
Line 226: Line 240:
   |contents=
   |contents=
#!/bin/bash
#!/bin/bash
#SBATCH --account=def-group    # specify account
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # days-hrs:mins
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --mem=8G              # node memory > 5G
#SBATCH --mem=8000M            # indiquer la mémoire totale > 5M
#SBATCH --cpus-per-task=4      # number cores > 1
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs > 1
#SBATCH --nodes=1              # do not change
#SBATCH --nodes=1              # ne pas modifier


module load abaqus/2021
module load abaqus/2021
Line 244: Line 258:
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
}}
}}
To write restart data for a total of 12 time increments specify in the input file:
 
Pour écrire les données de redémarrage pour un total de 12 incréments, le fichier en entrée doit contenir
  *RESTART, WRITE, OVERLAY, NUMBER INTERVAL=12, TIME MARKS=NO
  *RESTART, WRITE, OVERLAY, NUMBER INTERVAL=12, TIME MARKS=NO
Check for completed restart information in relevant output files:
Pour vérifier l'information complète sur le redémarrage
  egrep -i "step|restart" testep*.com testep*.msg testep*.sta
  egrep -i "step|restart" testep*.com testep*.msg testep*.sta
</tab>
</tab>
<tab name="project directory restart script">
<tab name="script de redémarrage, répertoire de projet">
{{File
{{File
   |name="scriptep2.txt"
   |name="scriptep2.txt"
Line 255: Line 271:
   |contents=
   |contents=
#!/bin/bash
#!/bin/bash
#SBATCH --account=def-group    # specify account
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # days-hrs:mins
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --mem=8G              # node memory > 5G
#SBATCH --mem=8000M            # indiquer la mémoire totale > 5M
#SBATCH --cpus-per-task=4      # number cores > 1
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs > 1
#SBATCH --nodes=1              # do not change
#SBATCH --nodes=1              # ne pas modifier


module load abaqus/2021
module load abaqus/2021
Line 274: Line 290:
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
}}
}}
No input file modifications are required to restart the analysis.
 
Le fichier en entrée ne requiert aucune modification pour le redémarrage de l'analyse.
 
</tab>
</tab>
<tab name="temporary directory script">
<tab name="script du répertoire temporaire">
{{File
{{File
   |name="scriptet1.txt"
   |name="scriptet1.txt"
Line 282: Line 300:
   |contents=
   |contents=
#!/bin/bash
#!/bin/bash
#SBATCH --account=def-group    # specify account
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # days-hrs:mins
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --mem=8G              # node memory > 5G
#SBATCH --mem=8000M            # indiquer la mémoire totale > 5M
#SBATCH --cpus-per-task=4      # number cores > 1
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs > 1
#SBATCH --nodes=1              # do not change
#SBATCH --nodes=1              # ne pas modifier


module load abaqus/2021
module load abaqus/2021
Line 309: Line 327:
cp -f * $SLURM_SUBMIT_DIR
cp -f * $SLURM_SUBMIT_DIR
}}
}}
To write restart data for a total of 12 time increments specify in the input file:
 
Pour écrire les données de redémarrage pour un total de 12 incréments, le fichier en entrée doit contenir
  *RESTART, WRITE, OVERLAY, NUMBER INTERVAL=12, TIME MARKS=NO
  *RESTART, WRITE, OVERLAY, NUMBER INTERVAL=12, TIME MARKS=NO
Check for completed restart information in relevant output files:
Pour vérifier l'information complète sur le redémarrage
  egrep -i "step|restart" testet*.com testet*.msg testet*.sta
  egrep -i "step|restart" testet*.com testet*.msg testet*.sta
</tab>
</tab>
<tab name="temporary directory restart script">
<tab name="script de redémarrage, répertoire temporaire">
{{File
{{File
   |name="scriptet2.txt"
   |name="scriptet2.txt"
Line 320: Line 340:
   |contents=
   |contents=
#!/bin/bash
#!/bin/bash
#SBATCH --account=def-group    # specify account
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # days-hrs:mins
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --mem=8G              # node memory > 5G
#SBATCH --mem=8000M            # indiquer la mémoire totale > 5M
#SBATCH --cpus-per-task=4      # number cores > 1
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs > 1
#SBATCH --nodes=1              # do not change
#SBATCH --nodes=1              # ne pas modifier


module load abaqus/2021
module load abaqus/2021
Line 348: Line 368:
cp -f  * $SLURM_SUBMIT_DIR
cp -f  * $SLURM_SUBMIT_DIR
}}
}}
No input file modifications are required to restart the analysis.
 
Le fichier en entrée ne requiert aucune modification pour le redémarrage de l'analyse.
 
</tab>
</tab>
</tabs>
</tabs>


=== Multiple node computing ===  
 
=== Script pour nœuds multiples ===  
 
{{File
{{File
   |name="scriptep1-mpi.txt"
   |name="scriptep1-mpi.txt"
Line 358: Line 382:
   |contents=
   |contents=
!/bin/bash
!/bin/bash
#SBATCH --account=def-group    # Specify account
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # Specify days-hrs:mins
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
# SBATCH --nodes=2            # Best to leave commented
# SBATCH --nodes=2            # préférable de laisser en commentaire
#SBATCH --ntasks=8            # Specify number of cores
#SBATCH --ntasks=8            # indiquer le nombre de cœurs
#SBATCH --mem-per-cpu=16G      # Specify memory per core
#SBATCH --mem-per-cpu=16000M  # indiquer la mémoire par cœur
#SBATCH --cpus-per-task=1      # Do not change !
# SBATCH --nodes=2            # indiquer le nombre de nœuds (optionnel)
#SBATCH --cpus-per-task=1      # ne pas modifier


module load abaqus/2021
module load StdEnv/2020        # plus récente version installée
module load abaqus/2021       # plus récente version installée


unset SLURM_GTIDS
unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
export MPI_IC_ORDER='tcp'
# supprimer le commentaire sur la ligne suivante si vous utilisez abaqus/2021
export I_MPI_HYDRA_TOPOLIB=ipl
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"
Line 386: Line 414:
}}
}}


== Node memory ==
== Capacité de mémoire pour un nœud ==
An estimate for the total slurm node memory (--mem=) required for a simulation to run fully in ram (without being virtualized to scratch disk) can be obtained by examining the Abaqus output <code>test.dat</code> file. For example, a simulation that requires a fairly large amount of memory might show:
Une estimation de la mémoire totale pour un nœud  (--mem=) requise par Slurm pour qu'une simulation soit effectuée uniquement en mémoire vive (sans être virtualisée sur le disque scratch) se trouve dans le fichier de sortie Abaqus <code>test.dat</code>. Dans l'exemple suivant, la simulation exige une assez grande quantité de mémoire.


<source lang="bash">
<source lang="bash">
Line 399: Line 427:
</source>
</source>


To run your simulation interactively and monitor the memory consumption, do the following:
Pour effectuer une simulation en mode interactif et suivre la consommation de mémoire,
1) ssh into a cluster, obtain an allocation on a compute node (such as gra100), run abaqus ie)
 
1) via SSH, connectez-vous à une grappe, obtenez une allocation sur un nœud de calcul (comme gra100) et lancez Abaqus.
 
{{Commands
{{Commands
|salloc --time=0:30:00 --cpus-per-task=8 --mem=64G --account=def-piname
|salloc --time=0:30:00 --cpus-per-task=8 --mem=64G --account=def-piname
Line 407: Line 437:
|abaqus job=test input=Sample.inp scratch=$SCRATCH cpus=8 mp_mode=threads interactive
|abaqus job=test input=Sample.inp scratch=$SCRATCH cpus=8 mp_mode=threads interactive
}}
}}
2) ssh into the cluster again, ssh into the compute node with the allocation, run top ie)
 
2) via SSH, connectez-vous de nouveau à la grappe puis au nœud de calcul et lancez top.
 
{{Commands|ssh gra100
{{Commands|ssh gra100
|top -u $USER}}
|top -u $USER}}
3) watch the VIRT and RES columns until steady peak memory values are observed


To completely satisfy the recommended "MEMORY TO OPERATIONS REQUIRED MINIMIZE I/O" (MRMIO) value, at least the same amount of non-swapped physical memory (RES) must be available to Abaqus.  Since the RES will in general be less than the virtual memory (VIRT) by some relatively constant amount for a given simulation, it is necessary to slightly over-allocate the requested Slurm node memory <code>-mem=</code>.  In the above sample Slurm script, this over-allocation has been hardcoded to a conservative value of 3072MB based on initial testing of the standard Abaqus solver.  To avoid long queue wait times associated with large values of MRMIO, it may be worth investigating the simulation performance impact associated with reducing the RES memory that is made available to Abaqus significantly below the MRMIO.  This can be done by lowering the <code>-mem=</code> value which in turn will set an artificially low value of <code>memory=</code> in the Abaqus command (found in the last line of the slurm script).  In doing this one should be careful the RES does not dip below the MINIMUM MEMORY REQUIRED (MMR) otherwise Abaqus will exit due to Out of Memory (OOM).  As an example, if your MRMIO is 96GB try running a series of short test jobs with <code>#SBATCH --mem=8G, 16G, 32G, 64G</code> until an acceptable minimal performance impact is found, noting that smaller values will result in increasingly larger scratch space used by temporary files.
3) observez les colonnes VIRT and RES jusqu'à ce que des valeurs de mémoire maximales stables soient atteintes.


= Graphical use =
Pour respecter la valeur de MEMORY TO OPERATIONS REQUIRED MINIMIZE I/O (MRMIO), Abaqus doit disposer de la même quantité de mémoire physique non échangée (RES). Comme la RES est en général plus petite que la mémoire virtuelle (VIRT) par une quantité relativement constante pour une simulation donnée, il faut donc augmenter légèrement la mémoire du nœud demandée pour Slurm <code>-mem=</code>. Dans l'exemple ci-dessus, la surallocation a été codée en dur à la valeur conservative de 3072Mo sur la base de tests avec le solveur standard d'Abaqus. Pour éviter le long temps d'attente associé à beaucoup de MRMIO, il pourrait être avantageux de vérifier l'impact associé avec la réduction de la mémoire RES réservée à Abaqus à une valeur considérablement inférieure à celle de la MRMIO. Ceci peut se faire en diminuant la valeur de <code>-mem=</code> qui à son tour va déterminer une valeur artificiellement basse pour <code>memory=</code> dans la dernière ligne du script pour Slurm. Si vous faites ceci, assurez-vous que la RES ne tombe pas sous MINIMUM MEMORY REQUIRED (MMR) puisqu'Abaqus fermera par manque de mémoire (OOM pour Out Of Memory). Par exemple, si votre MRMIO est de 96Go, effectuez une série de courts tests avec <code>#SBATCH --mem=8G, 16G, 32G, 64G</code> jusqu'à ce que l'impact minimal sur la performance soit acceptable; notez que des valeurs plus petites feront en sorte qu'un espace scratch de plus en plus grand sera utilisé pour les fichiers temporaires.
Abaqus/2020 can be run interactively in graphical mode on a cluster or gra-vdi using VNC by following these steps:


== On a cluster ==
= Mode graphique =
# Connect to a compute node (3hr salloc time limit) with [https://docs.computecanada.ca/wiki/VNC#Compute_Nodes TigerVNC]
Abaqus peut être utilisé interactivement en mode graphique sur une grappe ou sur gra-vdi avec VCN.
# Open a new terminal window and enter one of the following:<br><code>module load StdEnv/2016 abaqus/6.14.1</code>, or,<br><code>module load StdEnv/2016 abaqus/2020</code>, or,<br><code>module load StdEnv/2020 abaqus/2021</code>
# <code>abaqus cae -mesa</code><br><br>


== On gra-vdi ==
<div class="mw-translate-fuzzy">
# Connect to gra-vdi (24hr abaqus runtime limit) with [https://docs.computecanada.ca/wiki/VNC#VDI_Nodes TigerVNC]
== Sur une grappe ==
# Open a new terminal window and enter one of the following:<br><code>module load CcEnv StdEnv/2016 abaqus/6.14.1</code>, or,<br><code>module load CcEnv StdEnv/2016 abaqus/2020</code>, or,<br><code>module load CcEnv StdEnv/2020 abaqus/2021</code>
1. [[VNC/fr#Nœuds_de_calcul|Connectez-vous à un nœud de calcul (durée maximale 3 heures) avec TigerVNC]].<br>
# <code>abaqus cae</code><br><br>
2. Ouvrez une nouvelle fenêtre de terminal et entrez<br><code>module load StdEnv/2020 abaqus/2021</code><br>
3. Lancez l'application avec<br>
<code>abaqus cae -mesa</code><br><br>
</div>


o <b>Checking license availability</b>
<div class="mw-translate-fuzzy">
There must be at least 1 license free (not in use) for <code>abaqus cae</code> to start according to:
== Sur gra-vdi ==
1. [[VNC/fr#Nœuds_VDI|Connectez-vous à un nœud VDI (durée maximale 24 heures) avec TigerVNC]].<br>
2. Ouvrez une nouvelle fenêtre de terminal et entrez un des énoncés suivants&nbsp;:<br>
<code>module load StdEnv/2016 abaqus/6.14.1</code><br><code>module load StdEnv/2016 abaqus/2020</code> ou <br><code>module load StdEnv/2020 abaqus/2021</code><br>
3. Lancez l'application avec<br>
<code>abaqus cae</code><br><br>
</div>
 
<div class="mw-translate-fuzzy">
o <b>Vérifier la disponibilité de la licence</b>
Il doit y avoir au moins une licence non utilisée pour que <code>abaqus cae</code> démarre, selon
  abaqus licensing lmstat -c $ABAQUSLM_LICENSE_FILE -a | grep "Users of cae"
  abaqus licensing lmstat -c $ABAQUSLM_LICENSE_FILE -a | grep "Users of cae"
</div>


The SHARCNET license has 2 free and 2 reserved licenses. If all 4 are in use the following error message will occur:
[gra-vdi3:~] abaqus licensing lmstat -c $ABAQUSLM_LICENSE_FILE -a | grep "Users of cae"
Users of cae:  (Total of 4 licenses issued; Total of 4 licenses in use)


<source lang="bash">
Then the following error messages will occur when you attempt to start abaqus cae:
[gra-vdi3:~] abaqus licensing lmstat -c $ABAQUSLM_LICENSE_FILE -a | grep "Users of cae"
Users of cae: (Total of 4 licenses issued;  Total of 4 licenses in use)


[gra-vdi3:~] abaqus cae
[gra-vdi3:~] abaqus cae
ABAQUSLM_LICENSE_FILE=27050@license3.sharcnet.ca
ABAQUSLM_LICENSE_FILE=27050@license3.sharcnet.ca
/opt/sharcnet/abaqus/2020/Commands/abaqus cae
/opt/sharcnet/abaqus/2020/Commands/abaqus cae
No socket connection to license server manager.
No socket connection to license server manager.
Feature:      cae
Feature:      cae
License path:  27050@license3.sharcnet.ca:
License path:  27050@license3.sharcnet.ca:
FLEXnet Licensing error:-7,96
FLEXnet Licensing error:-7,96
For further information, refer to the FLEXnet Licensing documentation,
For further information, refer to the FLEXnet Licensing documentation,
or contact your local Abaqus representative.
or contact your local Abaqus representative.
Number of requested licenses: 1
Number of requested licenses: 1
Number of total licenses:    4
Number of total licenses:    4
Number of licenses in use:    2
Number of licenses in use:    2
Number of available licenses: 2
Number of available licenses: 2
Abaqus Error: Abaqus/CAE Kernel exited with an error.
Abaqus Error: Abaqus/CAE Kernel exited with an error.
</source>


= Site-specific use =
<div class="mw-translate-fuzzy">
== SHARCNET license ==  
=Particularités selon le site d'utilisation=
SHARCNET provides a small but free license consisting of 2 cae and 35 execute tokens where usage limits are imposed 10 tokens/user and 15 tokens/group. For groups that have purchased dedicated tokens, the free token usage limits are added to their reservation. The free tokens are available on a first come first serve basis and mainly intended for testing and light usage before deciding whether or not to purchase dedicated tokens. The costs for dedicated tokens are approximately CAD$110 per compute token and CAD$400 per GUI token: submit a ticket to request an official quote. The license can be used by any Alliance researcher, but only on SHARCNET hardware. Groups that purchase dedicated tokens to run on the SHARCNET license server may likewise only use them on SHARCNET hardware including gra-vdi (for running Abaqus in full graphical mode) and Graham or Dusky clusters (for submitting compute batch jobs to the queue). Before you can use the license you must contact [[Technical support]] and request access. In your email 1) mention that it is for use on SHARCNET systems and 2) include a copy/paste of the following <code>License Agreement</code> statement with your full name and username entered in the indicated locations. Please note that every user must do this it cannot be done one time only for a group; this includes PIs who have purchased their own dedicated tokens.
==Licence SHARCNET==
SHARCNET offre une licence gratuite, mais qui n'a que 2 jetons <code>cae</code> et 35 jetons <code>execute</code>, avec une utilisation limitée à 10 jetons par utilisateur et 15 jetons par groupe. Dans le cas des groupes qui ont acheté des jetons dédiés, les limites d'utilisation des jetons gratuits sont ajoutées à leur réservation. Les jetons gratuits sont disponibles selon le principe du premier arrivé, premier servi et sont principalement destinés à des tests et à une utilisation légère pour vous permettre de décider d'acheter ou non des jetons dédiés. Les coûts des jetons dédiés sont d'environ 110̩$ CA par jeton de calcul et de 400$ CA par jeton d'interface; pour connaître le prix exact, écrivez au [[Technical support/fr|soutien technique]]. La licence peut être utilisée par les chercheuses et chercheurs de l'Alliance, mais uniquement sur du matériel SHARCNET. De même, les groupes qui achètent des jetons dédiés à exécuter sur le serveur de licences SHARCNET ne peuvent les utiliser que sur du matériel SHARCNET, y compris gra-vdi (pour exécuter Abaqus en mode graphique complet) et les grappes Graham ou Dusky (pour soumettre des travaux de traitement par lots à la file d'attente). Avant de pouvoir utiliser la licence, vous devez en demander l'accès au [[Technical support/fr|soutien technique]]. Dans votre courriel 1) mentionnez qu'il est destiné à être utilisé sur les systèmes SHARCNET et 2) copiez/collez la déclaration <i>License Agreement</i> ci-dessous avec votre nom complet et votre nom d'utilisateur aux emplacements indiqués. Veuillez noter que chaque utilisateur doit remplir ce formulaire, c'est-à-dire qu'il ne peut pas être fourni une seule fois pour un groupe; ceci inclut les chercheuses et chercheurs principaux qui ont acheté leurs propres jetons dédiés.
</div>


<b>o  License agreement</b>
<div class="mw-translate-fuzzy">
<b>o  Entente</b>
<pre>----------------------------------------------------------------------------------
<pre>----------------------------------------------------------------------------------
Subject: Abaqus SHARCNET Academic License User Agreement
Subject: Abaqus SHARCNET Academic License User Agreement
</div>


This email is to confirm that i "_____________" with username "___________" will
This email is to confirm that i "_____________" with username "___________" will
Line 474: Line 518:
-----------------------------------------------------------------------------------</pre>
-----------------------------------------------------------------------------------</pre>


<b>o Configure license file</b>
<div class="mw-translate-fuzzy">
Configure your license file as follows, noting that it is only usable on SHARCNET systems: Graham, gra-vdi and Dusky.
<b>o Configurer le fichier de licence </b>
Configurez votre fichier de licence comme suit (pour utilisation uniquement sur les systèmes SHARCNET Graham, gra-vdi et Dusky).
</div>
<source lang="bash">
<source lang="bash">
[gra-login1:~] cat ~/.licenses/abaqus.lic
[gra-login1:~] cat ~/.licenses/abaqus.lic
Line 482: Line 528:
</source>
</source>


If your Abaqus jobs fail with the error message [*** ABAQUS/eliT_CheckLicense rank 0 terminated by signal 11 (Segmentation fault)] in the slurm output file, verify if your <code>abaqus.lic</code> file contains ABAQUSLM_LICENSE_FILE to use abaqus/2020. If your Abaqus jobs fail with an error message starting [License server machine is down or not responding, etc.] in the output file verify your <code>abaqus.lic</code> file contains LM_LICENSE_FILE to use abaqus/6.14.1 as shown. The <code>abaqus.lic</code> file shown contains both so you should not see this problem.
<div class="mw-translate-fuzzy">
<b>o Query license server</b>
Si vos tâches se terminent anormalement et que le fichier de sortie de l'ordonnanceur contient le message d'erreur <i>*** ABAQUS/eliT_CheckLicense rank 0 terminated by signal 11 (Segmentation fault)</i>, vérifiez si votre fichier <code>abaqus.lic</code> contient <i>ABAQUSLM_LICENSE_FILE</i> pour Abaqus/2020. Si le fichier de sortie contient <i>License server machine is down or not responding</i> etc., vérifiez si le fichier <code>abaqus.lic</code> contient <i>LM_LICENSE_FILE</i> pour Abaqus/6.14.1, comme montré. Puisque le fichier <code>abaqus.lic</code> montré contient les deux énoncés, vous ne devriez pas avoir ce problème.
I) To check the SHARCNET license server for started and queued jobs by username, run:
<b>o Interroger le serveur de licences</b>
I) Pour connaître les tâches commencées et les tâches en attente sur le serveur de licence SHARCNET, par utilisateur, lancez
</div>
 
=== Query license server ===
Log into graham, load abaqus and then run one of the following:
<source lang="bash">
<source lang="bash">
ssh graham.computecanada.ca
ssh graham.alliancecan.ca
module load StdEnv/2016.4
module load StdEnv/2020
module load abaqus
module load abaqus
abaqus licensing lmstat -c $LM_LICENSE_FILE -a | grep "Users\|start\|queued\|RESERVATIONs"
</source>
</source>
II) To check the SHARCNET license server for reservations of products by purchasing groups, run:
 
I) Check the SHARCNET license server for started and queued jobs:
<source lang="bash">
<source lang="bash">
ssh graham.computecanada.ca
abaqus licensing lmstat -c $LM_LICENSE_FILE -a | egrep "Users|start|queued"
module load StdEnv/2016.4
</source>
module load abaqus
<div class="mw-translate-fuzzy">
abaqus licensing lmstat -c $LM_LICENSE_FILE -a | grep "Users\|RESERVATIONs"
II) Pour savoir si le serveur de licences SHARCNET a des réservations de produits par groupe d'acquisition, lancez
</div>
<source lang="bash">
abaqus licensing lmstat -c $LM_LICENSE_FILE -a | egrep "Users|start|queued|RESERVATION"
</source>
</source>
III) To check the SHARCNET license server for license usage of the cae, standard and explicit products, run:
<div class="mw-translate-fuzzy">
III) Pour savoir si le serveur de licences SHARCNET montre une utilisation de cae ou de produits standards et particuliers, lancez
</div>
<source lang="bash">
<source lang="bash">
ssh graham.computecanada.ca
abaqus licensing lmstat -c $LM_LICENSE_FILE -a | grep "Users of" | egrep "cae|standard|explicit"
module load StdEnv/2016.4
module load abaqus
abaqus licensing lmstat -c $LM_LICENSE_FILE -a | grep "Users of" | grep "cae\|standard\|explicit"
</source>
</source>
When the output of query I) above indicates that a job for a particular username is queued this means the job has entered the "R"unning state from the perspective of <code>squeue -j jobid</code> or <code>sacct -j jobid</code> and is therefore idle on a compute node waiting for a license. This will have the same impact on your account priority as if the job were performing computations and consuming CPU time. Eventually when sufficient licenses come available the queued job will start. To demonstrate, the following shows the license server and queue output for the situation where a user submits two jobs, but only the first job acquires enough licenses to start:
Quand la sortie de la requête I) ci-dessus indique qu'une tâche pour un nom d'utilisateur particulier est mise en file d'attente (queued), cela signifie qu'elle est entrée dans l'état d'exécution (R pour <i>running</i>) du point de vue de <code>squeue -j jobid</code> ou <code>sacct -j jobid</code> et est donc inactive sur un nœud de calcul en attente d'une licence. Cela aura le même impact sur la priorité de votre compte que si la tâche effectuait des calculs et consommait du temps CPU. Quand suffisamment de licences seront disponibles, la tâche en file d'attente sera lancée. En exemple, ce qui suit montre le serveur de licences et la file d'attente en sortie quand un utilisateur soumet deux tâches, mais quand seule la première tâche obtient suffisamment de licences pour démarrer :


  [roberpj@dus241:~] sq
  [roberpj@dus241:~] sq
Line 512: Line 565:
           29802  roberpj  def-roberpj  scriptsp1.txt  R    2:59:33      1    12      8G  dus28 (None)  
           29802  roberpj  def-roberpj  scriptsp1.txt  R    2:59:33      1    12      8G  dus28 (None)  


  [roberpj@dus241:~] abaqus licensing lmstat -c $LM_LICENSE_FILE -a | grep "Users\|start\|queued\|RESERVATIONs"
  [roberpj@dus241:~] abaqus licensing lmstat -c $LM_LICENSE_FILE -a | egrep "Users|start|queued|RESERVATION"
   Users of abaqus:  (Total of 78 licenses issued;  Total of 71 licenses in use)
   Users of abaqus:  (Total of 78 licenses issued;  Total of 71 licenses in use)
       roberpj dus47 /dev/tty (v62.2) (license3.sharcnet.ca/27050 275), start Thu 8/27 5:45, 14 licenses
       roberpj dus47 /dev/tty (v62.2) (license3.sharcnet.ca/27050 275), start Thu 8/27 5:45, 14 licenses
       roberpj dus28 /dev/tty (v62.2) (license3.sharcnet.ca/27050 729) queued for 14 licenses
       roberpj dus28 /dev/tty (v62.2) (license3.sharcnet.ca/27050 729) queued for 14 licenses


<b>o Specify job resources</b>
<div class="mw-translate-fuzzy">
To ensure optimal usage of both your Abaqus tokens and our resources, it's important to carefully specify the required memory and ncpus in your Slurm script. The values can be determined by submitting a few short test jobs to the queue then checking their utilization. For <b>completed</b> jobs use <code>seff JobNumber</code> to show the total <i>Memory Utilized</i> and <i>Memory Efficiency</i>. If the <i>Memory Efficiency</i> is less than ~90%, decrease the value of the <code>#SBATCH --mem=</code> setting in your Slurm script accordingly. Notice that the <code>seff JobNumber</code> command also shows the total <i>CPU (time) Utilized</i> and <i>CPU Efficiency</i>. If the <i>CPU Efficiency</i> is less than ~90%, perform scaling tests to determine the optimal number of CPUs for optimal performance and then update the value of <code>#SBATCH --cpus-per-task=</code> in your Slurm script. For <b>running</b> jobs, use the <code>srun --jobid=29821580 --pty top -d 5 -u $USER</code> command to watch the %CPU, %MEM and RES for each Abaqus parent process on the compute node. The %CPU and %MEM columns display the percent usage relative to the total available on the node while the RES column shows the per process resident memory size (in human readable format for values over 1GB). Further information regarding how to [Running_jobs#Monitoring_jobs monitor jobs] is available on our documentation wiki
<b>o Spécifier les ressources pour la tâche</b>
Pour garantir une utilisation optimale de vos jetons Abaqus et de nos ressources, il est important de bien spécifier la mémoire et le <code>ncpus</code> requis dans votre script Slurm. Les valeurs peuvent être déterminées en soumettant quelques courts tests à la file d'attente, puis en vérifiant leur utilisation. Pour les travaux terminés (completed), utilisez <code>seff JobNumber</code> pour afficher le total pour <i>Memory Utilized</i> et <i>Memory Efficiency</i>; si <i>Memory Efficiency</i> est inférieure à ~90 %, diminuez en conséquence la valeur du paramètre #SBATCH --mem= dans votre script. Notez que la commande seff JobNumber affiche aussi les totaux pour CPU (time) Utilized et CPU Efficiency; si CPU Efficiency est inférieure à ~90 %, effectuez des tests de mise à l'échelle pour déterminer le nombre optimal de CPU pour une performance optimale; ensuite, mettez à jour la valeur <code>#SBATCH --cpus-per-task=</code> dans votre script. Pour les tâches en cours d'exécution (<i>running</i>), utilisez la commande <code>srun --jobid=29821580 --pty top -d 5 -u $USER</code> pour surveiller %CPU, %MEM et RES pour chaque processus parent d'Abaqus sur le nœud de calcul. Les colonnes <i>%CPU</i> et <i>%MEM</i> affichent le pourcentage d'utilisation par rapport au total disponible sur le nœud, tandis que la colonne <i>RES</i> affiche la taille de la mémoire résidente par processus (au format lisible par l'homme pour les valeurs supérieures à 1 Go). Pour plus d'information, voir [[Running_jobs/fr#Suivi_des_tâches comment suivre une tâche]].
</div>


<b>o Core token mapping</b>
<div class="mw-translate-fuzzy">
<b>o Correspondance cœur-jeton</b>
</div>
<pre>
<pre>
TOKENS 5  6  7  8  10  12  14  16  19  21  25  28  34  38
TOKENS 5  6  7  8  10  12  14  16  19  21  25  28  34  38
CORES  1  2  3  4  6  8  12  16  24  32  48  64  96 128
CORES  1  2  3  4  6  8  12  16  24  32  48  64  96 128
</pre>
</pre>
where TOKENS = floor[5 X CORES^0.422]
TOKENS = floor[5 X CORES^0.422]


== Western license ==
<div class="mw-translate-fuzzy">
The Western site license may only be used by Western researchers on hardware located at Western's campus. Currently, the Dusky cluster is the only system that satisfies these conditions. Graham and gra-vdi are excluded since they are located on Waterloo's campus. Contact the Western Abaqus license server administrator <jmilner@robarts.ca> to inquire about using the Western Abaqus license. You will need to provide your username and possibly make arrangements to purchase tokens. If you are granted access then you may proceed to configure your <code>abaqus.lic</code> file to point to the Western license server as follows:
==Licence du site Western==
<b>o Configure license file</b>
Cette licence peut uniquement être utilisée par les chercheuses et chercheurs de Western avec du matériel situé sur le campus de Western. Dusky est présentement la seule grappe qui réunit ces conditions. Graham et gra-vdi sont exclus puisqu'ils sont situés sur le campus de Waterloo. Pour savoir si vous pouvez utiliser cette licence, contactez l'administrateur du serveur de licences de Western <jmilner@robarts.ca>. Vous devrez fournir votre nom d'utilisateur et possiblement acheter des jetons (<i>tokens</i>). Si l'accès vous est accordé, configurez votre fichier <code>abaqus.lic</code> pour qu'il pointe sur le serveur de licences de Western.
<br>
<b>o Configurer le fichier de licences</b><br>
</div>


Configure your license file as follows, noting that it is only usable on Dusky.
<div class="mw-translate-fuzzy">
Configurez votre fichier de licence comme suit (pour utilisation uniquement sur Dusky).
</div>


<source lang="bash">
<source lang="bash">
Line 538: Line 600:
prepend_path("ABAQUSLM_LICENSE_FILE","27000@license4.sharcnet.ca")
prepend_path("ABAQUSLM_LICENSE_FILE","27000@license4.sharcnet.ca")
</source>
</source>
Once configured, submit your job as described in the <i>Cluster job submission</i> section above. If there are any problems submit a problem ticket to [[Technical support|technical support]]. Specify that you are using the Abaqus Western license on dusky and provide the failed job number along with a paste of any error messages as applicable.
Par la suite, soumettez votre tâche tel que décrit à la section <i>Soumettre une tâche sur une grappe</i> ci-dessus. Si un problème survient, écrivez au [[Technical support/fr|soutien technique]] en indiquant que vous utilisez la licence du site Western sur Dusky. Ajoutez le numéro de la tâche qui pose problème et copiez le ou les messages d'erreur s'il y a lieu.


= Online documentation =
= Documentation en ligne =
The full Abaqus documentation (latest version) can be accessed on gra-vdi as shown in the following steps.
Vous pouvez consulter la documentation pour la plus récente version sur gra-vdi comme suit&nbsp;:


Account preparation:
Préparation de votre compte
# connect to <b>gra-vdi.computecanada.ca</b> with tigervnc as described in [VNC#VDI_nodes VDI nodes]
# [[VNC/fr#Nœuds_VDI|Connectez-vous à <b>gra-vdi.com</b> avec TigerVNC]].
# open a terminal window on gra-vdi and type <code>firefox</code> (hit enter)
# Sur gra-vdi, ouvrez une fenêtre de terminal et entrez <code>firefox</code> (appuyez sur Entrée).
# in the address bar type <code>about:config</code> (hit enter) -> click the <I>I accept the risk!</i> button
# Dans la barre d'adresse, entrez <code>about:config</code> (appuyez sur Entrée) -> cliquez sur le bouton <i>I accept the risk</i>.
# in the search bar type <code>unique</code> then double click <code>privacy.file_unique_origin</code> to change true to false  
# Dans la barre de recherche, entrez <code>unique</code> et double-cliquez sur <code>privacy.file_unique_origin</code> pour changer <i>true'</i> en <i>false</i>.


View documentation:
Afficher la documentation
# connect to <b>gra-vdi.computecanada.ca</b> with tigervnc as described in [VNC#VDI_nodes VDI nodes]
# [[VNC/fr#Nœuds_VDI|Connectez-vous à <b>gra-vdi.com</b> avec TigerVNC]].
# open a terminal window on gra-vdi and type <code>firefox </code> (hit enter)
# Sur gra-vdi, ouvrez une fenêtre de terminal et entrez <code>firefox</code> (appuyez sur Entrée).
# in the search bar copy paste one of the following:<br><code>file:///opt/sharcnet/abaqus/2020/doc/English/DSSIMULIA_Established.htm</code>, or<br><code>file:///opt/sharcnet/abaqus/2021/doc/English/DSSIMULIA_Established.htm</code>
# Dans la barre de recherche, copiez-collez un des énoncés suivants&nbsp;: <br><code>file:///opt/sharcnet/abaqus/2020/doc/English/DSSIMULIA_Established.htm</code>, ou<br><code>file:///opt/sharcnet/abaqus/2021/doc/English/DSSIMULIA_Established.htm</code>
# find a topic by clicking for example: <i>Abaqus -> Analysis -> Analysis Techniques -> Analysis Continuation Techniques</i>
# Cliquez sur un sujet, par exemple <i>Abaqus -> Analysis -> Analysis Techniques -> Analysis Continuation Techniques</i>.

Latest revision as of 17:50, 13 November 2024

Other languages:

Abaqus FEA est un progiciel commercial pour l'analyse d'éléments finis et l'ingénierie assistée par ordinateur.

Votre licence

Des modules Abaqus sont disponibles sur nos grappes, mais vous devez posséder votre propre licence. Pour configurer votre compte sur les grappes que vous voulez utiliser, connectez-vous et créez sur chacune un fichier $HOME/.licenses/abaqus.lic qui contient les deux lignes suivantes, pour les versions 202X et 6.14.1 respectivement. Remplacez ensuite port@server par le numéro du port flexlm et l'adresse IP (ou le nom complet du domaine) de votre serveur de licence Abaqus.


File : abaqus.lic

prepend_path("ABAQUSLM_LICENSE_FILE","port@server")
prepend_path("LM_LICENSE_FILE","port@server")


Si votre licence n'est pas configurée pour une grappe en particulier, les administrateurs de systèmes des deux parties devront effectuer certaines modifications. Ceci est nécessaire pour que les ports flexlm et TCP de votre serveur Abaqus puissent être rejoints par tous les nœuds de calcul quand vos tâches dans la queue seront exécutées. Pour que nous puissions vous assister dans cette tâche, écrivez au soutien technique en indiquant

  • le numéro du port flexlm
  • le numéro du port statique
  • l'adresse IP de votre serveur de licence Abaqus.

En retour vous recevrez une liste d'adresses IP et votre administrateur de système pourra ouvrir les pare-feu de votre serveur local pour que la grappe puisse se connecter via les deux ports. Une entente spéciale doit habituellement être négociée et signée avec SIMULIA pour qu'une telle licence puisse être utilisée à distance avec notre matériel.

Soumettre une tâche sur une grappe

Vous trouverez ci-dessous des prototypes de scripts Slurm pour soumettre des simulations parallèles sur un ou plusieurs nœuds de calcul en utilisant des fils et MPI. Dans la plupart des cas, il suffira d'utiliser un des scripts du répertoire de projet dans une des sections pour un nœud simple. Dans la dernière ligne des scripts, l'argument memory= est optionnel et sert aux tâches qui demandent beaucoup de mémoire ou qui posent problème; la valeur de déplacement de 3072Mo (offset) pourrait nécessiter un ajustement. Pour obtenir la liste des arguments en ligne de commande, chargez un module Abaqus et lancez abaqus -help | less.

Le script du répertoire de projet sous le premier onglet devrait suffire pour les tâches qui utilisent un nœud simple et qui ont une durée de moins d'une journée. Par contre, pour les tâches qui utilisent un nœud simple et qui ont une durée de plus d'une journée, vous devriez utiliser un des scripts de redémarrage. Dans le cas des tâches qui créent de gros fichiers de redémarrage, il est préférable que l'écriture se fasse sur le disque local avec la variable d'environnement SLURM_TMPDIR qui est utilisée dans les scripts sous les derniers onglets des sections Analyse standard et Analyse explicite. Les scripts de redémarrage continueront les tâches qui ont été terminées pour une quelconque raison. Ceci peut se produire si la tâche atteint la durée d'exécution maximum demandée avant d'être complète et qu'elle est tuée par la queue, ou si le nœud de calcul plante en raison d'un problème de matériel inattendu. D'autres types de redémarrage sont possibles en modifiant davantage le fichier d'entrée (non documentés ici) pour poursuivre une tâche ayant des étapes additionnelles ou en changeant l'analyse (consultez la documentation pour les détails particuliers à la version).

Les tâches qui exigent beaucoup de mémoire ou beaucoup de ressources de calcul (plus que la capacité d'un nœud simple) devraient utiliser les scripts MPI dans les sections pour nœuds multiples afin de distribuer le calcul sur un ensemble de nœuds arbitraires déterminé automatiquement par l'ordonnanceur. Avant de lancer des tâches de longue durée, il est recommandé d'exécuter de courts tests présentant peu de scalabilité pour déterminer la durée réelle d'exécution (et les exigences en mémoire) en fonction du nombre optimal de cœurs (2, 4, 8, etc.).

Analyse standard

Les solveurs prennent en charge la parallélisation avec fils et avec MPI. Des scripts pour chaque mode sont présentés sous les onglets pour l'utilisation d'un nœud simple et celle de nœuds multiples. Des scripts pour redémarrer une tâche qui utilise des nœuds multiples ne sont pas présentés pour l'instant.

Scripts pour un nœud simple

File : "scriptsp1.txt"

#!/bin/bash
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs
#SBATCH --mem=8M               # indiquer la mémoire totale > 5M
#SBATCH --nodes=1              # ne pas modifier

module load StdEnv/2020        # plus récente version installée
module load abaqus/2021        # plus récente version installée

#module load StdEnv/2016       # supprimer le commentaire pour utiliser la commande
#module load abaqus/2020       # supprimer le commentaire pour utiliser la commande

unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"

rm -f testsp1* testsp2*
abaqus job=testsp1 input=mystd-sim.inp \
   scratch=$SCRATCH cpus=$SLURM_CPUS_ON_NODE interactive \
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"


Pour écrire les données de redémarrage en incréments de N=12, le fichier en entrée doit contenir

*RESTART, WRITE, OVERLAY, FREQUENCY=12

Pour écrire les données de redémarrage pour un total de 12 incréments, entrez plutôt

*RESTART, WRITE, OVERLAY, NUMBER INTERVAL=12, TIME MARKS=NO

Pour vérifier l'information complète sur le redémarrage

egrep -i "step|start" testsp*.com testsp*.msg testsp*.sta

Certaines simulations peuvent être améliorées en ajoutant au bas du script la commande Abaqus

order_parallel=OFF
File : "scriptsp2.txt"

#!/bin/bash
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs
#SBATCH --mem=8G               # indiquer la mémoire totale > 5M
#SBATCH --nodes=1              # ne pas modifier

module load StdEnv/2020        # plus récente version installée
module load abaqus/2021        # plus récente version installée

unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"

rm -f testsp2* testsp1.lck
abaqus job=testsp2 oldjob=testsp1 input=mystd-sim-restart.inp \
   scratch=$SCRATCH cpus=$SLURM_CPUS_ON_NODE interactive \
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"


Le fichier en entrée pour le redémarrage doit contenir

*HEADING
*RESTART, READ
File : "scriptst1.txt"

#!/bin/bash
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs
#SBATCH --mem=8G               # indiquer la mémoire totale > 5M
#SBATCH --nodes=1              # ne pas modifier

module load StdEnv/2020        # plus récente version installée
module load abaqus/2021        # plus récente version installée

unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"
echo "SLURM_SUBMIT_DIR =" $SLURM_SUBMIT_DIR
echo "SLURM_TMPDIR = " $SLURM_TMPDIR

rm -f testst1* testst2*
cd $SLURM_TMPDIR
while sleep 6h; do
   cp -f * $SLURM_SUBMIT_DIR 2>/dev/null
done &
WPID=$!
abaqus job=testst1 input=$SLURM_SUBMIT_DIR/mystd-sim.inp \
   scratch=$SCRATCH cpus=$SLURM_CPUS_ON_NODE interactive \
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
{ kill $WPID && wait $WPID; } 2>/dev/null
cp -f * $SLURM_SUBMIT_DIR


Pour écrire les données de redémarrage en incréments de N=12, le fichier en entrée doit contenir

*RESTART, WRITE, OVERLAY, FREQUENCY=12

Pour écrire les données de redémarrage pour un total de 12 incréments, entrez plutôt

*RESTART, WRITE, OVERLAY, NUMBER INTERVAL=12, TIME MARKS=NO

Pour vérifier l'information complète sur le redémarrage

egrep -i "step|start" testst*.com testst*.msg testst*.sta
File : "scriptst2.txt"

#!/bin/bash
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs
#SBATCH --mem=8G               # indiquer la mémoire totale > 5M
#SBATCH --nodes=1              # ne pas modifier

module load StdEnv/2020        # plus récente version installée
module load abaqus/2021        # plus récente version installée

unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"
echo "SLURM_SUBMIT_DIR =" $SLURM_SUBMIT_DIR
echo "SLURM_TMPDIR = " $SLURM_TMPDIR

rm -f testst2* testst1.lck
cp testst1* $SLURM_TMPDIR
cd $SLURM_TMPDIR
while sleep 3h; do
   cp -f testst2* $SLURM_SUBMIT_DIR 2>/dev/null
done &
WHILEPID=$!
abaqus job=testst2 oldjob=testst1 input=$SLURM_SUBMIT_DIR/mystd-sim-restart.inp \
   scratch=$SCRATCH cpus=$SLURM_CPUS_ON_NODE interactive \
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
{ kill $WPID && wait $WPID; } 2>/dev/null
cp -f testst2* $SLURM_SUBMIT_DIR


Le fichier en entrée pour le redémarrage doit contenir

*HEADING
*RESTART, READ

Script pour nœuds multiples

Si vous disposez d'une licence qui vous permet d'exécuter des tâches nécessitant beaucoup de mémoire et de calcul, le script suivant pourra effectuer le calcul avec MPI en utilisant un ensemble de nœuds arbitraires idéalement déterminé automatiquement par l'ordonnanceur. Un script modèle pour redémarrer des tâches sur nœuds multiples n'est pas fourni car son utilisation présente des limitations supplémentaires.


File : "scriptsp1-mpi.txt"

!/bin/bash
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
# SBATCH --nodes=2             # préférable de laisser en commentaire
#SBATCH --ntasks=8             # indiquer le nombre de cœurs
#SBATCH --mem-per-cpu=16G      # indiquer la mémoire par cœur
#SBATCH --cpus-per-task=1      # ne pas modifier

module load StdEnv/2020        # plus récente version installée
module load abaqus/2021        # plus récente version installée

unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"

rm -f testsp1-mpi*

unset hostlist
nodes="$(slurm_hl2hl.py --format MPIHOSTLIST | xargs)"
for i in `echo "$nodes" | xargs -n1 | uniq`; do hostlist=${hostlist}$(echo "['${i}',$(echo "$nodes" | xargs -n1 | grep $i | wc -l)],"); done
hostlist="$(echo "$hostlist" | sed 's/,$//g')"
mphostlist="mp_host_list=[$(echo "$hostlist")]"
export $mphostlist
echo "$mphostlist" > abaqus_v6.env

abaqus job=testsp1-mpi input=mystd-sim.inp \
  scratch=$SCRATCH cpus=$SLURM_NTASKS interactive mp_mode=mpi


Analyse explicite

Les solveurs prennent en charge la parallélisation avec fils et avec MPI. Des scripts pour chaque mode sont présentés sous les onglets pour l'utilisation d'un nœud simple et celle de nœuds multiples. Des modèles de scripts pour redémarrer une tâche qui utilise des nœuds multiples nécessitent plus de tests et ne sont pas présentés pour l'instant.

Scripts pour un nœud simple

File : "scriptep1.txt"

#!/bin/bash
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --mem=8000M            # indiquer la mémoire totale > 5M
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs > 1
#SBATCH --nodes=1              # ne pas modifier

module load abaqus/2021

unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"

rm -f testep1* testep2*
abaqus job=testep1 input=myexp-sim.inp \
   scratch=$SCRATCH cpus=$SLURM_CPUS_ON_NODE interactive \
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"


Pour écrire les données de redémarrage pour un total de 12 incréments, le fichier en entrée doit contenir

*RESTART, WRITE, OVERLAY, NUMBER INTERVAL=12, TIME MARKS=NO

Pour vérifier l'information complète sur le redémarrage

egrep -i "step|restart" testep*.com testep*.msg testep*.sta
File : "scriptep2.txt"

#!/bin/bash
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --mem=8000M            # indiquer la mémoire totale > 5M
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs > 1
#SBATCH --nodes=1              # ne pas modifier

module load abaqus/2021

unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"

rm -f testep2* testep1.lck
for f in testep1*; do [[ -f ${f} ]] && cp -a "$f" "testep2${f#testep1}"; done
abaqus job=testep2 input=myexp-sim.inp recover \
   scratch=$SCRATCH cpus=$SLURM_CPUS_ON_NODE interactive \
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"


Le fichier en entrée ne requiert aucune modification pour le redémarrage de l'analyse.

File : "scriptet1.txt"

#!/bin/bash
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --mem=8000M            # indiquer la mémoire totale > 5M
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs > 1
#SBATCH --nodes=1              # ne pas modifier

module load abaqus/2021

unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"
echo "SLURM_SUBMIT_DIR =" $SLURM_SUBMIT_DIR
echo "SLURM_TMPDIR = " $SLURM_TMPDIR

rm -f testet1* testet2*
cd $SLURM_TMPDIR
while sleep 6h; do
   cp -f * $SLURM_SUBMIT_DIR 2>/dev/null
done &
WPID=$!
abaqus job=testet1 input=$SLURM_SUBMIT_DIR/myexp-sim.inp \
   scratch=$SCRATCH cpus=$SLURM_CPUS_ON_NODE interactive \
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
{ kill $WPID && wait $WPID; } 2>/dev/null
cp -f * $SLURM_SUBMIT_DIR


Pour écrire les données de redémarrage pour un total de 12 incréments, le fichier en entrée doit contenir

*RESTART, WRITE, OVERLAY, NUMBER INTERVAL=12, TIME MARKS=NO

Pour vérifier l'information complète sur le redémarrage

egrep -i "step|restart" testet*.com testet*.msg testet*.sta
File : "scriptet2.txt"

#!/bin/bash
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
#SBATCH --mem=8000M            # indiquer la mémoire totale > 5M
#SBATCH --cpus-per-task=4      # indiquer le nombre de cœurs > 1
#SBATCH --nodes=1              # ne pas modifier

module load abaqus/2021

unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"
echo "SLURM_SUBMIT_DIR =" $SLURM_SUBMIT_DIR
echo "SLURM_TMPDIR = " $SLURM_TMPDIR

rm -f testet2* testet1.lck
for f in testet1*; do cp -a "$f" $SLURM_TMPDIR/"testet2${f#testet1}"; done
cd $SLURM_TMPDIR
while sleep 3h; do
   cp -f * $SLURM_SUBMIT_DIR 2>/dev/null
done &
WPID=$!
abaqus job=testet2 input=$SLURM_SUBMIT_DIR/myexp-sim.inp recover \
   scratch=$SCRATCH cpus=$SLURM_CPUS_ON_NODE interactive \
   mp_mode=threads memory="$((${SLURM_MEM_PER_NODE}-3072))MB"
{ kill $WPID && wait $WPID; } 2>/dev/null
cp -f  * $SLURM_SUBMIT_DIR


Le fichier en entrée ne requiert aucune modification pour le redémarrage de l'analyse.


Script pour nœuds multiples

File : "scriptep1-mpi.txt"

!/bin/bash
#SBATCH --account=def-group    # indiquer le nom du compte
#SBATCH --time=00-06:00        # indiquer la limite de temps (jours-heures:minutes)
# SBATCH --nodes=2             # préférable de laisser en commentaire
#SBATCH --ntasks=8             # indiquer le nombre de cœurs
#SBATCH --mem-per-cpu=16000M   # indiquer la mémoire par cœur
# SBATCH --nodes=2             # indiquer le nombre de nœuds (optionnel)
#SBATCH --cpus-per-task=1      # ne pas modifier

module load StdEnv/2020        # plus récente version installée
module load abaqus/2021        # plus récente version installée

unset SLURM_GTIDS
export MPI_IC_ORDER='tcp'
# supprimer le commentaire sur la ligne suivante si vous utilisez abaqus/2021
export I_MPI_HYDRA_TOPOLIB=ipl
echo "LM_LICENSE_FILE=$LM_LICENSE_FILE"
echo "ABAQUSLM_LICENSE_FILE=$ABAQUSLM_LICENSE_FILE"

rm -f testep1-mpi*

unset hostlist
nodes="$(slurm_hl2hl.py --format MPIHOSTLIST | xargs)"
for i in `echo "$nodes" | xargs -n1 | uniq`; do hostlist=${hostlist}$(echo "['${i}',$(echo "$nodes" | xargs -n1 | grep $i | wc -l)],"); done
hostlist="$(echo "$hostlist" | sed 's/,$//g')"
mphostlist="mp_host_list=[$(echo "$hostlist")]"
export $mphostlist
echo "$mphostlist" > abaqus_v6.env

abaqus job=testep1-mpi input=myexp-sim.inp \
  scratch=$SCRATCH cpus=$SLURM_NTASKS interactive mp_mode=mpi


Capacité de mémoire pour un nœud

Une estimation de la mémoire totale pour un nœud (--mem=) requise par Slurm pour qu'une simulation soit effectuée uniquement en mémoire vive (sans être virtualisée sur le disque scratch) se trouve dans le fichier de sortie Abaqus test.dat. Dans l'exemple suivant, la simulation exige une assez grande quantité de mémoire.

                   M E M O R Y   E S T I M A T E
  
 PROCESS      FLOATING PT       MINIMUM MEMORY        MEMORY TO
              OPERATIONS           REQUIRED          MINIMIZE I/O
             PER ITERATION           (MB)               (MB)
  
     1          1.89E+14             3612              96345

Pour effectuer une simulation en mode interactif et suivre la consommation de mémoire,

1) via SSH, connectez-vous à une grappe, obtenez une allocation sur un nœud de calcul (comme gra100) et lancez Abaqus.

[name@server ~]$ module load abaqus/6.14.1  OR  module load abaqus/2020
[name@server ~]$ unset SLURM_GTIDS


2) via SSH, connectez-vous de nouveau à la grappe puis au nœud de calcul et lancez top.

[name@server ~]$ ssh gra100
[name@server ~]$ top -u $USER


3) observez les colonnes VIRT and RES jusqu'à ce que des valeurs de mémoire maximales stables soient atteintes.

Pour respecter la valeur de MEMORY TO OPERATIONS REQUIRED MINIMIZE I/O (MRMIO), Abaqus doit disposer de la même quantité de mémoire physique non échangée (RES). Comme la RES est en général plus petite que la mémoire virtuelle (VIRT) par une quantité relativement constante pour une simulation donnée, il faut donc augmenter légèrement la mémoire du nœud demandée pour Slurm -mem=. Dans l'exemple ci-dessus, la surallocation a été codée en dur à la valeur conservative de 3072Mo sur la base de tests avec le solveur standard d'Abaqus. Pour éviter le long temps d'attente associé à beaucoup de MRMIO, il pourrait être avantageux de vérifier l'impact associé avec la réduction de la mémoire RES réservée à Abaqus à une valeur considérablement inférieure à celle de la MRMIO. Ceci peut se faire en diminuant la valeur de -mem= qui à son tour va déterminer une valeur artificiellement basse pour memory= dans la dernière ligne du script pour Slurm. Si vous faites ceci, assurez-vous que la RES ne tombe pas sous MINIMUM MEMORY REQUIRED (MMR) puisqu'Abaqus fermera par manque de mémoire (OOM pour Out Of Memory). Par exemple, si votre MRMIO est de 96Go, effectuez une série de courts tests avec #SBATCH --mem=8G, 16G, 32G, 64G jusqu'à ce que l'impact minimal sur la performance soit acceptable; notez que des valeurs plus petites feront en sorte qu'un espace scratch de plus en plus grand sera utilisé pour les fichiers temporaires.

Mode graphique

Abaqus peut être utilisé interactivement en mode graphique sur une grappe ou sur gra-vdi avec VCN.

Sur une grappe

1. Connectez-vous à un nœud de calcul (durée maximale 3 heures) avec TigerVNC.
2. Ouvrez une nouvelle fenêtre de terminal et entrez
module load StdEnv/2020 abaqus/2021
3. Lancez l'application avec
abaqus cae -mesa

Sur gra-vdi

1. Connectez-vous à un nœud VDI (durée maximale 24 heures) avec TigerVNC.
2. Ouvrez une nouvelle fenêtre de terminal et entrez un des énoncés suivants :
module load StdEnv/2016 abaqus/6.14.1
module load StdEnv/2016 abaqus/2020 ou
module load StdEnv/2020 abaqus/2021
3. Lancez l'application avec
abaqus cae

o Vérifier la disponibilité de la licence Il doit y avoir au moins une licence non utilisée pour que abaqus cae démarre, selon

abaqus licensing lmstat -c $ABAQUSLM_LICENSE_FILE -a | grep "Users of cae"
[gra-vdi3:~] abaqus licensing lmstat -c $ABAQUSLM_LICENSE_FILE -a | grep "Users of cae"
Users of cae:  (Total of 4 licenses issued;  Total of 4 licenses in use)

Then the following error messages will occur when you attempt to start abaqus cae:

[gra-vdi3:~] abaqus cae
ABAQUSLM_LICENSE_FILE=27050@license3.sharcnet.ca
/opt/sharcnet/abaqus/2020/Commands/abaqus cae
No socket connection to license server manager.
Feature:       cae
License path:  27050@license3.sharcnet.ca:
FLEXnet Licensing error:-7,96
For further information, refer to the FLEXnet Licensing documentation,
or contact your local Abaqus representative.
Number of requested licenses: 1
Number of total licenses:     4
Number of licenses in use:    2
Number of available licenses: 2
Abaqus Error: Abaqus/CAE Kernel exited with an error.

Particularités selon le site d'utilisation

Licence SHARCNET

SHARCNET offre une licence gratuite, mais qui n'a que 2 jetons cae et 35 jetons execute, avec une utilisation limitée à 10 jetons par utilisateur et 15 jetons par groupe. Dans le cas des groupes qui ont acheté des jetons dédiés, les limites d'utilisation des jetons gratuits sont ajoutées à leur réservation. Les jetons gratuits sont disponibles selon le principe du premier arrivé, premier servi et sont principalement destinés à des tests et à une utilisation légère pour vous permettre de décider d'acheter ou non des jetons dédiés. Les coûts des jetons dédiés sont d'environ 110̩$ CA par jeton de calcul et de 400$ CA par jeton d'interface; pour connaître le prix exact, écrivez au soutien technique. La licence peut être utilisée par les chercheuses et chercheurs de l'Alliance, mais uniquement sur du matériel SHARCNET. De même, les groupes qui achètent des jetons dédiés à exécuter sur le serveur de licences SHARCNET ne peuvent les utiliser que sur du matériel SHARCNET, y compris gra-vdi (pour exécuter Abaqus en mode graphique complet) et les grappes Graham ou Dusky (pour soumettre des travaux de traitement par lots à la file d'attente). Avant de pouvoir utiliser la licence, vous devez en demander l'accès au soutien technique. Dans votre courriel 1) mentionnez qu'il est destiné à être utilisé sur les systèmes SHARCNET et 2) copiez/collez la déclaration License Agreement ci-dessous avec votre nom complet et votre nom d'utilisateur aux emplacements indiqués. Veuillez noter que chaque utilisateur doit remplir ce formulaire, c'est-à-dire qu'il ne peut pas être fourni une seule fois pour un groupe; ceci inclut les chercheuses et chercheurs principaux qui ont acheté leurs propres jetons dédiés.

o Entente

----------------------------------------------------------------------------------
Subject: Abaqus SHARCNET Academic License User Agreement
</div>

This email is to confirm that i "_____________" with username "___________" will
only use “SIMULIA Academic Software” with tokens from the SHARCNET license server
for the following purposes:

1) on SHARCNET hardware where the software is already installed
2) in affiliation with a Canadian degree-granting academic institution
3) for education, institutional or instruction purposes and not for any commercial
   or contract-related purposes where results are not publishable
4) for experimental, theoretical and/or digital research work, undertaken primarily
   to acquire new knowledge of the underlying foundations of phenomena and observable
   facts, up to the point of proof-of-concept in a laboratory    
-----------------------------------------------------------------------------------

o Configurer le fichier de licence Configurez votre fichier de licence comme suit (pour utilisation uniquement sur les systèmes SHARCNET Graham, gra-vdi et Dusky).

[gra-login1:~] cat ~/.licenses/abaqus.lic
prepend_path("LM_LICENSE_FILE","27050@license3.sharcnet.ca")
prepend_path("ABAQUSLM_LICENSE_FILE","27050@license3.sharcnet.ca")

Si vos tâches se terminent anormalement et que le fichier de sortie de l'ordonnanceur contient le message d'erreur *** ABAQUS/eliT_CheckLicense rank 0 terminated by signal 11 (Segmentation fault), vérifiez si votre fichier abaqus.lic contient ABAQUSLM_LICENSE_FILE pour Abaqus/2020. Si le fichier de sortie contient License server machine is down or not responding etc., vérifiez si le fichier abaqus.lic contient LM_LICENSE_FILE pour Abaqus/6.14.1, comme montré. Puisque le fichier abaqus.lic montré contient les deux énoncés, vous ne devriez pas avoir ce problème. o Interroger le serveur de licences I) Pour connaître les tâches commencées et les tâches en attente sur le serveur de licence SHARCNET, par utilisateur, lancez

Query license server

Log into graham, load abaqus and then run one of the following:

ssh graham.alliancecan.ca
module load StdEnv/2020
module load abaqus

I) Check the SHARCNET license server for started and queued jobs:

abaqus licensing lmstat -c $LM_LICENSE_FILE -a | egrep "Users|start|queued"

II) Pour savoir si le serveur de licences SHARCNET a des réservations de produits par groupe d'acquisition, lancez

abaqus licensing lmstat -c $LM_LICENSE_FILE -a | egrep "Users|start|queued|RESERVATION"

III) Pour savoir si le serveur de licences SHARCNET montre une utilisation de cae ou de produits standards et particuliers, lancez

abaqus licensing lmstat -c $LM_LICENSE_FILE -a | grep "Users of" | egrep "cae|standard|explicit"

Quand la sortie de la requête I) ci-dessus indique qu'une tâche pour un nom d'utilisateur particulier est mise en file d'attente (queued), cela signifie qu'elle est entrée dans l'état d'exécution (R pour running) du point de vue de squeue -j jobid ou sacct -j jobid et est donc inactive sur un nœud de calcul en attente d'une licence. Cela aura le même impact sur la priorité de votre compte que si la tâche effectuait des calculs et consommait du temps CPU. Quand suffisamment de licences seront disponibles, la tâche en file d'attente sera lancée. En exemple, ce qui suit montre le serveur de licences et la file d'attente en sortie quand un utilisateur soumet deux tâches, mais quand seule la première tâche obtient suffisamment de licences pour démarrer :

[roberpj@dus241:~] sq
         JOBID     USER      ACCOUNT           NAME  ST  TIME_LEFT  NODES  CPUS  MIN_MEM  NODELIST (REASON) 
         29801  roberpj  def-roberpj  scriptep1.txt   R    2:59:18      1    12       8G   dus47 (None) 
         29802  roberpj  def-roberpj  scriptsp1.txt   R    2:59:33      1    12       8G   dus28 (None) 
[roberpj@dus241:~] abaqus licensing lmstat -c $LM_LICENSE_FILE -a | egrep "Users|start|queued|RESERVATION"
 Users of abaqus:  (Total of 78 licenses issued;  Total of 71 licenses in use)
     roberpj dus47 /dev/tty (v62.2) (license3.sharcnet.ca/27050 275), start Thu 8/27 5:45, 14 licenses
     roberpj dus28 /dev/tty (v62.2) (license3.sharcnet.ca/27050 729) queued for 14 licenses

o Spécifier les ressources pour la tâche Pour garantir une utilisation optimale de vos jetons Abaqus et de nos ressources, il est important de bien spécifier la mémoire et le ncpus requis dans votre script Slurm. Les valeurs peuvent être déterminées en soumettant quelques courts tests à la file d'attente, puis en vérifiant leur utilisation. Pour les travaux terminés (completed), utilisez seff JobNumber pour afficher le total pour Memory Utilized et Memory Efficiency; si Memory Efficiency est inférieure à ~90 %, diminuez en conséquence la valeur du paramètre #SBATCH --mem= dans votre script. Notez que la commande seff JobNumber affiche aussi les totaux pour CPU (time) Utilized et CPU Efficiency; si CPU Efficiency est inférieure à ~90 %, effectuez des tests de mise à l'échelle pour déterminer le nombre optimal de CPU pour une performance optimale; ensuite, mettez à jour la valeur #SBATCH --cpus-per-task= dans votre script. Pour les tâches en cours d'exécution (running), utilisez la commande srun --jobid=29821580 --pty top -d 5 -u $USER pour surveiller %CPU, %MEM et RES pour chaque processus parent d'Abaqus sur le nœud de calcul. Les colonnes %CPU et %MEM affichent le pourcentage d'utilisation par rapport au total disponible sur le nœud, tandis que la colonne RES affiche la taille de la mémoire résidente par processus (au format lisible par l'homme pour les valeurs supérieures à 1 Go). Pour plus d'information, voir Running_jobs/fr#Suivi_des_tâches comment suivre une tâche.

o Correspondance cœur-jeton

TOKENS 5  6  7  8  10  12  14  16  19  21  25  28  34  38
CORES  1  2  3  4   6   8  12  16  24  32  48  64  96 128

où TOKENS = floor[5 X CORES^0.422]

Licence du site Western

Cette licence peut uniquement être utilisée par les chercheuses et chercheurs de Western avec du matériel situé sur le campus de Western. Dusky est présentement la seule grappe qui réunit ces conditions. Graham et gra-vdi sont exclus puisqu'ils sont situés sur le campus de Waterloo. Pour savoir si vous pouvez utiliser cette licence, contactez l'administrateur du serveur de licences de Western <jmilner@robarts.ca>. Vous devrez fournir votre nom d'utilisateur et possiblement acheter des jetons (tokens). Si l'accès vous est accordé, configurez votre fichier abaqus.lic pour qu'il pointe sur le serveur de licences de Western.
o Configurer le fichier de licences

Configurez votre fichier de licence comme suit (pour utilisation uniquement sur Dusky).

[dus241:~] cat .licenses/abaqus.lic
prepend_path("LM_LICENSE_FILE","27000@license4.sharcnet.ca")
prepend_path("ABAQUSLM_LICENSE_FILE","27000@license4.sharcnet.ca")

Par la suite, soumettez votre tâche tel que décrit à la section Soumettre une tâche sur une grappe ci-dessus. Si un problème survient, écrivez au soutien technique en indiquant que vous utilisez la licence du site Western sur Dusky. Ajoutez le numéro de la tâche qui pose problème et copiez le ou les messages d'erreur s'il y a lieu.

Documentation en ligne

Vous pouvez consulter la documentation pour la plus récente version sur gra-vdi comme suit :

Préparation de votre compte

  1. Connectez-vous à gra-vdi.com avec TigerVNC.
  2. Sur gra-vdi, ouvrez une fenêtre de terminal et entrez firefox (appuyez sur Entrée).
  3. Dans la barre d'adresse, entrez about:config (appuyez sur Entrée) -> cliquez sur le bouton I accept the risk.
  4. Dans la barre de recherche, entrez unique et double-cliquez sur privacy.file_unique_origin pour changer true' en false.

Afficher la documentation

  1. Connectez-vous à gra-vdi.com avec TigerVNC.
  2. Sur gra-vdi, ouvrez une fenêtre de terminal et entrez firefox (appuyez sur Entrée).
  3. Dans la barre de recherche, copiez-collez un des énoncés suivants :
    file:///opt/sharcnet/abaqus/2020/doc/English/DSSIMULIA_Established.htm, ou
    file:///opt/sharcnet/abaqus/2021/doc/English/DSSIMULIA_Established.htm
  4. Cliquez sur un sujet, par exemple Abaqus -> Analysis -> Analysis Techniques -> Analysis Continuation Techniques.