Utilisation du cluster Occigen (CINES)
Connexion
Il est impératif de se connecter depuis la machine mesologin1.univ-fcomte.fr avant d'accéder au cluster occigen.
$ ssh <mon_login_meso>@mesologin1.univ-fcomte.fr
login@mesologin1$ ssh <occigenlogin>@occigen.cines.fr
L'environnement d'occigen est identique à celui du mésocentre, à l'exception du gestionnaire de ressources.
Vous disposez d'un répertoire personnel $HOMEDIR (quota de 40Go) et d'un répertoire de travail $SCRATCHDIR (sans quota)
Soumission
Le cluster occigen utilise SLURM comme gestionnaire de ressources.
Chaque noeud dispose de 24 coeurs et leur réservation est exclusive, autrement dit, si vous demandez un noeud vous disposez d'office de 24 coeurs.
Donc même si vous utilisez moins de 24 coeurs par noeud, le décompte des heures consommées se fera quand même sur 24 coeurs.
Lors de la soumission il est nécessaire de renseigner les champs suivants :
- Nom du job (
#SBATCH -J
) - Nombre de noeuds souhaités (
#SBATCH –nodes
) - Nombre de coeurs utilisés (
#SBATCH –ntasks
) - Nombre de coeurs par noeuds (
#SBATCH –ntasks-per-node
) - Nombre de threads par coeurs (
#SBATCH –threads-per-core
) - Le temps maximum d'exécution (
#SBATCH –time
) - Le fichier de sortie (
#SBATCH –output
)
Exemple de soumission :
On se place dans le répertoire de travail
$ cd $SCRATCHDIR
- job.slurm
#!/bin/bash #SBATCH -J phylo_dari #SBATCH --nodes=2 #SBATCH --ntasks=48 #SBATCH --ntasks-per-node=24 #SBATCH --threads-per-core=1 #SBATCH --time=24:00:00 #SBATCH --output phylo_dari.output module purge module load intel/15.0.0.090 module load bullxmpi/1.2.8.3 module load python/2.7.8 export OMPI_MCA_mpi_warn_on_fork=0 export PATH=$PATH:$HOMEDIR/bin # pour RAxML srun --mpi=pmi2 -K1 --resv-ports -n $SLURM_NTASKS python Master.py
Mise en file d'attente
$ sbatch job.slurm
Etat des jobs
$ squeue -u cguyeux