TensorFlow/fr: Difference between revisions

Jump to navigation Jump to search
Updating to match new version of source page
No edit summary
(Updating to match new version of source page)
Line 29: Line 29:
{{Command2|prompt=(tensorflow) [name@server ~]$
{{Command2|prompt=(tensorflow) [name@server ~]$
|pip install --no-index tensorflow}}
|pip install --no-index tensorflow}}
For a version prior to TensorFlow 2.0.0, e.g. 1.14, use:
For a version prior to TensorFlow 2.0.0, e.g. 1.14.1, use:
{{Command2|prompt=(tensorflow) [name@server ~]$
{{Command2|prompt=(tensorflow) [name@server ~]$
|pip install --no-index tensorflow_cpu{{=}}{{=}}1.14}}
|pip install --no-index tensorflow_cpu{{=}}{{=}}1.14.1}}


=== GPU ===
=== GPU ===
Line 80: Line 80:
}}
}}
Le script Python se lit
Le script Python se lit
<tabs>
<tab name="TF 2.x">
{{File
  |name=tensorflow-test.py
  |lang="python"
  |contents=
import tensorflow as tf
node1 = tf.constant(3.0)
node2 = tf.constant(4.0)
print(node1, node2)
print(node1 + node2)
}}
</tab>
<tab name="TF 1.x">
{{File
{{File
   |name=tensorflow-test.py
   |name=tensorflow-test.py
Line 85: Line 100:
   |contents=
   |contents=
import tensorflow as tf
import tensorflow as tf
node1 = tf.constant(3.0, dtype=tf.float32)
node1 = tf.constant(3.0)
node2 = tf.constant(4.0) # also tf.float32 implicitly
node2 = tf.constant(4.0)
print(node1, node2)
print(node1, node2)
sess = tf.Session()
sess = tf.Session()
print(sess.run([node1, node2]))
print(sess.run(node1 + node2))
}}
}}
</tab>
</tabs>
<div class="mw-translate-fuzzy">
Une fois la tâche complétée, ce qui devrait nécessiter moins d'une minute, un fichier de sortie avec un nom semblable à <tt>cdr116-122907.out</tt> devrait être généré. Le contenu de ce fichier serait similaire à ce qui suit :
Une fois la tâche complétée, ce qui devrait nécessiter moins d'une minute, un fichier de sortie avec un nom semblable à <tt>cdr116-122907.out</tt> devrait être généré. Le contenu de ce fichier serait similaire à ce qui suit :
</div>
<tabs>
<tab name="TF 2.x">
{{File
  |name=cdr116-122907.out
  |lang="text"
  |contents=
2017-07-10 12:35:19.491097: I tensorflow/core/common_runtime/gpu/gpu_device.cc:961] DMA: 0
2017-07-10 12:35:19.491156: I tensorflow/core/common_runtime/gpu/gpu_device.cc:971] 0:  Y
2017-07-10 12:35:19.520737: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1030] Creating TensorFlow device (/gpu:0) -> (device: 0, name: Tesla P100-PCIE-12GB, pci bus id: 0000:82:00.0)
tf.Tensor(3.0, shape=(), dtype=float32) tf.Tensor(4.0, shape=(), dtype=float32)
tf.Tensor(7.0, shape=(), dtype=float32)
}}
</tab>
<tab name="TF 1.x">
{{File
{{File
   |name=cdr116-122907.out
   |name=cdr116-122907.out
   |lang="text"
   |lang="text"
   |contents=
   |contents=
2017-07-10 12:35:19.489458: I tensorflow/core/common_runtime/gpu/gpu_device.cc:940] Found device 0 with properties:
name: Tesla P100-PCIE-12GB
major: 6 minor: 0 memoryClockRate (GHz) 1.3285
pciBusID 0000:82:00.0
Total memory: 11.91GiB
Free memory: 11.63GiB
2017-07-10 12:35:19.491097: I tensorflow/core/common_runtime/gpu/gpu_device.cc:961] DMA: 0
2017-07-10 12:35:19.491097: I tensorflow/core/common_runtime/gpu/gpu_device.cc:961] DMA: 0
2017-07-10 12:35:19.491156: I tensorflow/core/common_runtime/gpu/gpu_device.cc:971] 0:  Y
2017-07-10 12:35:19.491156: I tensorflow/core/common_runtime/gpu/gpu_device.cc:971] 0:  Y
2017-07-10 12:35:19.520737: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1030] Creating TensorFlow device (/gpu:0) -> (device: 0, name: Tesla P100-PCIE-12GB, pci bus id: 0000:82:00.0)
2017-07-10 12:35:19.520737: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1030] Creating TensorFlow device (/gpu:0) -> (device: 0, name: Tesla P100-PCIE-12GB, pci bus id: 0000:82:00.0)
Tensor("Const:0", shape=(), dtype=float32) Tensor("Const_1:0", shape=(), dtype=float32)
Tensor("Const:0", shape=(), dtype=float32) Tensor("Const_1:0", shape=(), dtype=float32)
[3.0, 4.0]
7.0
}}
}}
</tab>
</tabs>


TensorFlow fonctionne sur tous les types de nœuds GPU. Pour la recherche de grande envergure en apprentissage profond ou en apprentissage machine, il est fortement recommandé d'utiliser le type de nœuds ''GPU large'' de Cedar. Ces nœuds sont équipés de  4 x P100-PCIE-16Go avec [http://developer.download.nvidia.com/devzone/devcenter/cuda/docs/GPUDirect_Technology_Overview.pdf GPUDirect P2P] entre chaque paire. Pour plus d'information, consultez [[Using GPUs with Slurm/fr|cette page]].
TensorFlow fonctionne sur tous les types de nœuds GPU. Pour la recherche de grande envergure en apprentissage profond ou en apprentissage machine, il est fortement recommandé d'utiliser le type de nœuds ''GPU large'' de Cedar. Ces nœuds sont équipés de  4 x P100-PCIE-16Go avec [http://developer.download.nvidia.com/devzone/devcenter/cuda/docs/GPUDirect_Technology_Overview.pdf GPUDirect P2P] entre chaque paire. Pour plus d'information, consultez [[Using GPUs with Slurm/fr|cette page]].
38,907

edits

Navigation menu