Skip to content

Commit c3ae5c3

Browse files
committed
Mise à jour documentation Vesta (espace disque temporaire pour les jobs
1 parent 47d1294 commit c3ae5c3

File tree

1 file changed

+6
-4
lines changed

1 file changed

+6
-4
lines changed

docs/code_form/vesta/jobs.md

Lines changed: 6 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -24,7 +24,7 @@ Une documentation des commandes de base est disponible ici : [http://slurm.sched
2424

2525
Les différents nœuds de calcul sont regroupés en fonction de différents critères dans des partitions.
2626
Lors de la soumission d'un job, il faut choisir une partition.
27-
Le cluster Vesta ne possède pour le moment qu'une parition nommé **mesonet** qui sera utilisée par défaut pour tous les jobs. Cette parition possède une limite de temps de **24 heures** par job. Cette limite est amenée à évoluer au cours du temps.
27+
Le cluster Vesta ne possède pour le moment qu'une parition nommé **mn-grant** qui sera utilisée pour tous les jobs. Cette parition possède une limite de temps de **24 heures** par job. Cette limite est amenée à évoluer au cours du temps.
2828

2929
## Lancement d'un job
3030

@@ -48,7 +48,8 @@ Voici un exemple d'un script de soumission demandant 2 nœuds de calcul avec cha
4848
#! /bin/bash
4949

5050
#SBATCH -A account # Cet account vous sera fourni à la création de votre projet
51-
#SBATCH -N 2-2 # 2 nœud
51+
#SBATCH -p mn-grant # Partition Mesonet
52+
#SBATCH -N 2-2 # 2 nœuds
5253
#SBATCH --gres=gpu:10 # 10 GPU par nœud
5354

5455
./mon_code_gpu
@@ -88,6 +89,7 @@ Remarque : tous les arguments de la directive #SBATCH peuvent également être u
8889
## Quelques directives utiles
8990

9091
* **-A** : compte Slurm à utiliser (il vous est fourni pour chaque projet)
92+
* **-p** : partition Slurm à utiliser (mn-grant pour la grande majorité des cas)
9193
* **-N** : nombre de nœuds (min - max)
9294
* **-n** : nombre de tâches (1 par nœud par défaut)
9395
* **--cpus-per-task** : nombre de cœurs par tâche
@@ -141,7 +143,7 @@ Pour utiliser une partition, il faut disposer d'un compte Slurm (indépendant du
141143
Pour utiliser la partition associée aux projets, vous aurez accès à un compte Slurm spécifique, configuré avec un quota d'heures suite à une allocation du comité scientifique :
142144

143145
```console
144-
#SBATCH -p mesonet
146+
#SBATCH -p mn-grant
145147
#SBATCH -A projet
146148
```
147149

@@ -157,7 +159,7 @@ Notez que **votre_account** correspond au nom du groupe Unix auquel vous apparte
157159

158160
## Espace disque temporaire
159161

160-
À la soumission d’un job et sur le disque dur de chacun des nœuds qui vous sont alloués, Slurm crée un répertoire **/tmp** utilisable par vos jobs et supprimer dès la fin de ces derniers sans que vous ayez à faire quoi que ce soit. Vous avez avez également accès à un répertoire **/workdir** dans lequel vous pouvez mettre vos fichiers d'entrée/sortie afin que ces derniers soient présents sur un disque local au nœud, et nom accessible via le réseau. N'oubliez pas de récupérer les données de sortie si vous utilisez cet espace temporaire qui est détruit à la fin du job.
162+
À la soumission d’un job et sur le disque dur de chacun des nœuds qui vous sont alloués, Slurm crée un répertoire **/tmp** utilisable par vos jobs et supprimé dès la fin de ces derniers sans que vous ayez à faire quoi que ce soit. N'oubliez pas de récupérer les données de sortie si vous utilisez cet espace temporaire qui est détruit à la fin du job.
161163

162164
## Variables d'environnement
163165

0 commit comments

Comments
 (0)