Utilisation du cluster Occigen (CINES)

Il est impératif de se connecter depuis la machine mesologin1.univ-fcomte.fr avant d'accéder au cluster occigen.

$ ssh <mon_login_meso>@mesologin1.univ-fcomte.fr
login@mesologin1$ ssh <occigenlogin>@occigen.cines.fr

L'environnement d'occigen est identique à celui du mésocentre, à l'exception du gestionnaire de ressources.

Vous disposez d'un répertoire personnel $HOMEDIR (quota de 40Go) et d'un répertoire de travail $SCRATCHDIR (sans quota)

Le cluster occigen utilise SLURM comme gestionnaire de ressources.

Chaque noeud dispose de 24 coeurs et leur réservation est exclusive, autrement dit, si vous demandez un noeud vous disposez d'office de 24 coeurs.

Donc même si vous utilisez moins de 24 coeurs par noeud, le décompte des heures consommées se fera quand même sur 24 coeurs.

Lors de la soumission il est nécessaire de renseigner les champs suivants :

  • Nom du job (#SBATCH -J)
  • Nombre de noeuds souhaités (#SBATCH –nodes)
  • Nombre de coeurs utilisés (#SBATCH –ntasks)
  • Nombre de coeurs par noeuds (#SBATCH –ntasks-per-node)
  • Nombre de threads par coeurs (#SBATCH –threads-per-core)
  • Le temps maximum d'exécution (#SBATCH –time)
  • Le fichier de sortie (#SBATCH –output)

Exemple de soumission :

On se place dans le répertoire de travail

$ cd $SCRATCHDIR

Au même titre que sur le mésocentre, vous ne pouvez pas travailler dans votre répertoire personnel, toutes les soumissions doivent se faire depuis votre répertoire de travail.

job.slurm
#!/bin/bash
 
#SBATCH -J phylo_dari
#SBATCH --nodes=2
#SBATCH --ntasks=48
#SBATCH --ntasks-per-node=24
#SBATCH --threads-per-core=1
#SBATCH --time=24:00:00
#SBATCH --output phylo_dari.output
 
module purge
module load intel/15.0.0.090
module load bullxmpi/1.2.8.3
module load python/2.7.8
 
export OMPI_MCA_mpi_warn_on_fork=0
export PATH=$PATH:$HOMEDIR/bin        # pour RAxML
 
srun --mpi=pmi2 -K1 --resv-ports -n $SLURM_NTASKS python Master.py

Mise en file d'attente

$ sbatch job.slurm

Etat des jobs

$ squeue -u cguyeux