Translations:AI and Machine Learning/35/fr

Revision as of 15:45, 24 August 2020 by Diane27 (talk | contribs) (Created page with "* si votre ensemble de données est d'environ 10Go ou moins, il entre probablement dans la mémoire, dépendant de la quantité de mémoire de votre tâche. Vos tâches d'appr...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
  • si votre ensemble de données est d'environ 10Go ou moins, il entre probablement dans la mémoire, dépendant de la quantité de mémoire de votre tâche. Vos tâches d'apprentissage machine ne devrait pas faire de lecture d'un disque;
  • si votre ensemble de données est d'environ 100Go ou moins, il entre dans l'espace de stockage local du nœud de calcul; transférez-le dans cet espace au début de la tâche puisqu'il est beaucoup plus rapide et fiable que les espaces partagés que sont /home, /project et /scratch. Pour chaque tâche, un répertoire temporaire est disponible à $SLURM_TMPDIR; voyez l'exemple de notre tutoriel. Il faut toutefois savoir qu'une autre tâche peut utiliser pleinement l'espace de stockage du nœud et ne vous laisser aucune place; (nous cherchons une solution à ce problème); par contre, si c'est votre jour de chance, vous pourriez avoir le téraoctet juste pour vous;
  • si votre ensemble de données est plus grand, vous pourriez devoir le laisser dans un espace partagé. Vous pouvez stocker des données de façon permanente dans votre espace /project; l'espace /scratch est parfois plus rapide, mais n'est pas conçu pour du stockage permanent. Tous les espaces de stockage partagés (/home, /project et /scratch) servent à stocker des gros blocs de données qui sont peu lus (peu souvent et à des intervalles de 1 seconde ou plus).