You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: docs/code_form/vesta/jobs.md
+6-4Lines changed: 6 additions & 4 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -24,7 +24,7 @@ Une documentation des commandes de base est disponible ici : [http://slurm.sched
24
24
25
25
Les différents nœuds de calcul sont regroupés en fonction de différents critères dans des partitions.
26
26
Lors de la soumission d'un job, il faut choisir une partition.
27
-
Le cluster Vesta ne possède pour le moment qu'une parition nommé **mesonet** qui sera utilisée par défaut pour tous les jobs. Cette parition possède une limite de temps de **24 heures** par job. Cette limite est amenée à évoluer au cours du temps.
27
+
Le cluster Vesta ne possède pour le moment qu'une parition nommé **mn-grant** qui sera utilisée pour tous les jobs. Cette parition possède une limite de temps de **24 heures** par job. Cette limite est amenée à évoluer au cours du temps.
28
28
29
29
## Lancement d'un job
30
30
@@ -48,7 +48,8 @@ Voici un exemple d'un script de soumission demandant 2 nœuds de calcul avec cha
48
48
#! /bin/bash
49
49
50
50
#SBATCH -A account # Cet account vous sera fourni à la création de votre projet
51
-
#SBATCH -N 2-2 # 2 nœud
51
+
#SBATCH -p mn-grant # Partition Mesonet
52
+
#SBATCH -N 2-2 # 2 nœuds
52
53
#SBATCH --gres=gpu:10 # 10 GPU par nœud
53
54
54
55
./mon_code_gpu
@@ -88,6 +89,7 @@ Remarque : tous les arguments de la directive #SBATCH peuvent également être u
88
89
## Quelques directives utiles
89
90
90
91
***-A** : compte Slurm à utiliser (il vous est fourni pour chaque projet)
92
+
***-p** : partition Slurm à utiliser (mn-grant pour la grande majorité des cas)
91
93
***-N** : nombre de nœuds (min - max)
92
94
***-n** : nombre de tâches (1 par nœud par défaut)
93
95
***--cpus-per-task** : nombre de cœurs par tâche
@@ -141,7 +143,7 @@ Pour utiliser une partition, il faut disposer d'un compte Slurm (indépendant du
141
143
Pour utiliser la partition associée aux projets, vous aurez accès à un compte Slurm spécifique, configuré avec un quota d'heures suite à une allocation du comité scientifique :
142
144
143
145
```console
144
-
#SBATCH -p mesonet
146
+
#SBATCH -p mn-grant
145
147
#SBATCH -A projet
146
148
```
147
149
@@ -157,7 +159,7 @@ Notez que **votre_account** correspond au nom du groupe Unix auquel vous apparte
157
159
158
160
## Espace disque temporaire
159
161
160
-
À la soumission d’un job et sur le disque dur de chacun des nœuds qui vous sont alloués, Slurm crée un répertoire **/tmp** utilisable par vos jobs et supprimer dès la fin de ces derniers sans que vous ayez à faire quoi que ce soit. Vous avez avez également accès à un répertoire **/workdir** dans lequel vous pouvez mettre vos fichiers d'entrée/sortie afin que ces derniers soient présents sur un disque local au nœud, et nom accessible via le réseau. N'oubliez pas de récupérer les données de sortie si vous utilisez cet espace temporaire qui est détruit à la fin du job.
162
+
À la soumission d’un job et sur le disque dur de chacun des nœuds qui vous sont alloués, Slurm crée un répertoire **/tmp** utilisable par vos jobs et supprimé dès la fin de ces derniers sans que vous ayez à faire quoi que ce soit. N'oubliez pas de récupérer les données de sortie si vous utilisez cet espace temporaire qui est détruit à la fin du job.
0 commit comments