38,907
edits
No edit summary |
(Updating to match new version of source page) |
||
Line 29: | Line 29: | ||
{{Command2|prompt=(tensorflow) [name@server ~]$ | {{Command2|prompt=(tensorflow) [name@server ~]$ | ||
|pip install --no-index tensorflow}} | |pip install --no-index tensorflow}} | ||
For a version prior to TensorFlow 2.0.0, e.g. 1.14, use: | For a version prior to TensorFlow 2.0.0, e.g. 1.14.1, use: | ||
{{Command2|prompt=(tensorflow) [name@server ~]$ | {{Command2|prompt=(tensorflow) [name@server ~]$ | ||
|pip install --no-index tensorflow_cpu{{=}}{{=}}1.14}} | |pip install --no-index tensorflow_cpu{{=}}{{=}}1.14.1}} | ||
=== GPU === | === GPU === | ||
Line 80: | Line 80: | ||
}} | }} | ||
Le script Python se lit | Le script Python se lit | ||
<tabs> | |||
<tab name="TF 2.x"> | |||
{{File | |||
|name=tensorflow-test.py | |||
|lang="python" | |||
|contents= | |||
import tensorflow as tf | |||
node1 = tf.constant(3.0) | |||
node2 = tf.constant(4.0) | |||
print(node1, node2) | |||
print(node1 + node2) | |||
}} | |||
</tab> | |||
<tab name="TF 1.x"> | |||
{{File | {{File | ||
|name=tensorflow-test.py | |name=tensorflow-test.py | ||
Line 85: | Line 100: | ||
|contents= | |contents= | ||
import tensorflow as tf | import tensorflow as tf | ||
node1 = tf.constant(3.0 | node1 = tf.constant(3.0) | ||
node2 = tf.constant(4.0) | node2 = tf.constant(4.0) | ||
print(node1, node2) | print(node1, node2) | ||
sess = tf.Session() | sess = tf.Session() | ||
print(sess.run( | print(sess.run(node1 + node2)) | ||
}} | }} | ||
</tab> | |||
</tabs> | |||
<div class="mw-translate-fuzzy"> | |||
Une fois la tâche complétée, ce qui devrait nécessiter moins d'une minute, un fichier de sortie avec un nom semblable à <tt>cdr116-122907.out</tt> devrait être généré. Le contenu de ce fichier serait similaire à ce qui suit : | Une fois la tâche complétée, ce qui devrait nécessiter moins d'une minute, un fichier de sortie avec un nom semblable à <tt>cdr116-122907.out</tt> devrait être généré. Le contenu de ce fichier serait similaire à ce qui suit : | ||
</div> | |||
<tabs> | |||
<tab name="TF 2.x"> | |||
{{File | |||
|name=cdr116-122907.out | |||
|lang="text" | |||
|contents= | |||
2017-07-10 12:35:19.491097: I tensorflow/core/common_runtime/gpu/gpu_device.cc:961] DMA: 0 | |||
2017-07-10 12:35:19.491156: I tensorflow/core/common_runtime/gpu/gpu_device.cc:971] 0: Y | |||
2017-07-10 12:35:19.520737: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1030] Creating TensorFlow device (/gpu:0) -> (device: 0, name: Tesla P100-PCIE-12GB, pci bus id: 0000:82:00.0) | |||
tf.Tensor(3.0, shape=(), dtype=float32) tf.Tensor(4.0, shape=(), dtype=float32) | |||
tf.Tensor(7.0, shape=(), dtype=float32) | |||
}} | |||
</tab> | |||
<tab name="TF 1.x"> | |||
{{File | {{File | ||
|name=cdr116-122907.out | |name=cdr116-122907.out | ||
|lang="text" | |lang="text" | ||
|contents= | |contents= | ||
2017-07-10 12:35:19.491097: I tensorflow/core/common_runtime/gpu/gpu_device.cc:961] DMA: 0 | 2017-07-10 12:35:19.491097: I tensorflow/core/common_runtime/gpu/gpu_device.cc:961] DMA: 0 | ||
2017-07-10 12:35:19.491156: I tensorflow/core/common_runtime/gpu/gpu_device.cc:971] 0: Y | 2017-07-10 12:35:19.491156: I tensorflow/core/common_runtime/gpu/gpu_device.cc:971] 0: Y | ||
2017-07-10 12:35:19.520737: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1030] Creating TensorFlow device (/gpu:0) -> (device: 0, name: Tesla P100-PCIE-12GB, pci bus id: 0000:82:00.0) | 2017-07-10 12:35:19.520737: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1030] Creating TensorFlow device (/gpu:0) -> (device: 0, name: Tesla P100-PCIE-12GB, pci bus id: 0000:82:00.0) | ||
Tensor("Const:0", shape=(), dtype=float32) Tensor("Const_1:0", shape=(), dtype=float32) | Tensor("Const:0", shape=(), dtype=float32) Tensor("Const_1:0", shape=(), dtype=float32) | ||
7.0 | |||
}} | }} | ||
</tab> | |||
</tabs> | |||
TensorFlow fonctionne sur tous les types de nœuds GPU. Pour la recherche de grande envergure en apprentissage profond ou en apprentissage machine, il est fortement recommandé d'utiliser le type de nœuds ''GPU large'' de Cedar. Ces nœuds sont équipés de 4 x P100-PCIE-16Go avec [http://developer.download.nvidia.com/devzone/devcenter/cuda/docs/GPUDirect_Technology_Overview.pdf GPUDirect P2P] entre chaque paire. Pour plus d'information, consultez [[Using GPUs with Slurm/fr|cette page]]. | TensorFlow fonctionne sur tous les types de nœuds GPU. Pour la recherche de grande envergure en apprentissage profond ou en apprentissage machine, il est fortement recommandé d'utiliser le type de nœuds ''GPU large'' de Cedar. Ces nœuds sont équipés de 4 x P100-PCIE-16Go avec [http://developer.download.nvidia.com/devzone/devcenter/cuda/docs/GPUDirect_Technology_Overview.pdf GPUDirect P2P] entre chaque paire. Pour plus d'information, consultez [[Using GPUs with Slurm/fr|cette page]]. |