Derniers changements
Gestionnaire Multimédia
Plan du site
ils sont regroupés dans une partition commune nommée
gpu
certains nœuds font aussi partie de
partitions privatives
, en conséquence un job de la partuition
gpu
peut être pré-empté (stoppé et resoumis) pour libérer des ressources.
Comme nous l'avons déjà vu, la partition possède des cartes de 3 types,
K20
,
K40m
et
GTX1080Ti
.
Si vous voulez explicitement utiliser tel ou tel
type
de carte, précisez-le :
#SBATCH --partition=gpu
#SBATCH --gres=gpu:GTX1080Ti:2
Eviter la pré-emption
Seul le noeud commun
node29
possède des
K20
. En conséquence, si vous demandez des cartes de ce type, votre job sera placé sur un noeud ne faisant pas partie de
partition privative
, et il ne pourra donc pas être
pré-empté
– Mais K20 sont des cartes très anciennes…
Vous voudrez peut-être tester un code de façon interactive avant de soumettre de gros batchs. Cependant, le noeud frontal ne dispose pas de carte GPU… Vous pouvez demander à slurm l'ouverture d'un shell
bash
interactif sur la partition GPU avec une commande de la forme :
srun --partition=gpu --gres=gpu:1 --nodes=1 --ntasks-per-node=1 --time=01:00:00 --pty bash -i
Ajustez les ressources (nombre de GPU, nombre de taches ou de processeurs, temps, mémoire…) avec les mêmes options que pour un
batch
classique, en prenant en compte vos besoins. Si des ressources sont disponibles immédiatement dans la partition demandée, vous obtenez de suite un shell
bash
. S'il n'y a pas de ressource disponible, la commande vous laisse en attente…
CUDA 11.2 ne supporte plus la compilation pour architecture Kepler générique (
sm_30
), mais supporte encore les GPU
sm_35
(
deprecated
) → on peut l'utiliser pour compiler du code pour le noeud commun
node29
CUDA 10 ne supporte pas GCC > 7