MAFFT/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
(Created page with "'''Note''': Au chargement du module, la variable d'environnement <tt>MAFFT_TMPDIR</tt> est fixée à <tt>$SLURM_TMPDIR/maffttmp</tt>.")
(Created page with "== Nœuds multiples (MPI) == MAFFT peut utiliser MPI pour aligner un grand nombre de séquences; voir https://mafft.cbrc.jp/alignment/software/mpi.html.")
Line 23: Line 23:
}}
}}


== Multiple nodes (MPI) ==
== Nœuds multiples (MPI) ==
MAFFT can use MPI to align a large number of sequences: https://mafft.cbrc.jp/alignment/software/mpi.html
MAFFT peut utiliser MPI pour aligner un grand nombre de séquences; voir https://mafft.cbrc.jp/alignment/software/mpi.html.


'''Note''': <tt>MAFFT_TMPDIR</tt> is set to <tt>$SCRATCH/maffttmp</tt> when you load the module.
'''Note''': <tt>MAFFT_TMPDIR</tt> is set to <tt>$SCRATCH/maffttmp</tt> when you load the module.

Revision as of 16:33, 3 August 2020

Other languages:

MAFFT est un programme d'alignement de séquences multiples pour des systèmes d'exploitation comme Unix. Il offre plusieurs méthodes d'alignement dont (précis, pour l'alignement de <∼200 séquences), FFT-NS-2 (rapide, pour l'alignement de <∼30,000 séquences), etc.

Nœud unique

MAFFT profite de cœurs multiples sur des nœuds uniques; voir https://mafft.cbrc.jp/alignment/software/multithreading.html.

Note: Au chargement du module, la variable d'environnement MAFFT_TMPDIR est fixée à $SLURM_TMPDIR/maffttmp.


File : mafft_submit.sh

#!/bin/bash

#SBATCH --time=24:00:00
#SBATCH --nodes=1
#SBATCH --cpus-per-task=32
#SBATCH --mem=0

module load gcc/9.3.0 mafft

mafft --globalpair --thread $SLURM_CPUS_PER_TASK input > output


Nœuds multiples (MPI)

MAFFT peut utiliser MPI pour aligner un grand nombre de séquences; voir https://mafft.cbrc.jp/alignment/software/mpi.html.

Note: MAFFT_TMPDIR is set to $SCRATCH/maffttmp when you load the module. If you change this temporary directory, it must be shared by all hosts.


File : mafft_mpi_submit.sh

#!/bin/bash

#SBATCH --time=04:00:00
#SBATCH --nodes=2
#SBATCH --ntasks-per-node=4
#SBATCH --cpus-per-task=1
#SBATCH --mem=12G

module load gcc/9.3.0 mafft-mpi

srun mafft --mpi --large --globalpair --thread $SLURM_CPUS_PER_TASK input > output