Arbutus object storage clients/fr: Difference between revisions

From Alliance Doc
Jump to navigation Jump to search
(Created page with "Par cette commande, le public peut avoir accès au bucket et, de manière récursive (-r), à chaque fichier dans le bucket. L’accès aux fichiers peut se faire avec des URL...")
No edit summary
Tag: Manual revert
 
(58 intermediate revisions by 3 users not shown)
Line 1: Line 1:
<languages />
<languages />


Nous décrivons ici la configuration et l’utilisation de deux clients souvent employés pour le stockage objet sur Arbutus, s3cmd et WinSCP. Pour plus d’information sur le stockage, voyez la page [[Arbutus_Object_Storage/fr|Stockage objet sur Arbutus]].
Pour l'information sur comment obtenir de l'espace de stockage objet sur Arbutus, voir  [[Arbutus object storage/fr|cette page wiki]]. Voyez aussi l'information sur les clients&nbsp;:
* [[Accessing object storage with s3cmd/fr| Stockage objet : Accès avec s3cmd]]
* [[Accessing object storage with WinSCP/fr| Stockage objet : Accès avec WinSCP]]
* [[Accessing the Arbutus object storage with AWS CLI/fr| Stockage objet : Accès avec AWS CLI]]


Il faut noter que la solution de stockage objet sur Arbutus n'utilise pas l’approche [https://documentation.help/s3-dg-20060301/VirtualHosting.html S3 Virtual Hosting] d’Amazon avec des buckets DNS, contrairement à s3cmd et WinSCP qui l’offrent par défaut.
Il faut noter que la solution de stockage objet sur Arbutus n'utilise pas l’approche [https://documentation.help/s3-dg-20060301/VirtualHosting.html S3 Virtual Hosting] d’Amazon avec des buckets DNS, contrairement à ces clients qui l’offrent par défaut. Pour ne pas utiliser cette approche, il faut donc configurer les clients en conséquence.  


== s3cmd ==
[[Category:Cloud]]
=== Installation ===
Dépendant de votre distribution Linux, la commande <code>s3cmd</code> peut être installée avec les commandes <code>yum</code> (RHEL, CentOS) ou <code>apt</code (Debian, Ubuntu) suivantes :
 
<code>$ sudo yum install s3cmd</code><br/>
<code>$ sudo apt install s3cmd </code>
 
=== Configuration ===
Pour configurer l’outil <code>s3cmd</code>, lancez la commande
 
Configurez ensuite <tt>s3cmd</tt> à l’aide des clés que l’équipe Arbutus vous a fournies&nbsp;:
<pre>
Enter new values or accept defaults in brackets with Enter.
Refer to user manual for detailed description of all options.
 
Access key and Secret key are your identifiers for Amazon S3. Leave them empty for using the env variables.
Access Key []: 20_DIGIT_ACCESS_KEY
Secret Key []: 40_DIGIT_SECRET_KEY
Default Region [US]:
 
Use "s3.amazonaws.com" for S3 Endpoint and not modify it to the target Amazon S3.
S3 Endpoint []: object-arbutus.cloud.computecanada.ca
 
Use "%(bucket)s.s3.amazonaws.com" to the target Amazon S3. "%(bucket)s" and "%(location)s" vars can be used
if the target S3 system supports dns based buckets.
DNS-style bucket+hostname:port template for accessing a bucket []: object-arbutus.cloud.computecanada.ca
 
Encryption password is used to protect your files from reading
by unauthorized persons while in transfer to S3
Encryption password []: PASSWORD
Path to GPG program []: /usr/bin/gpg
 
When using secure HTTPS protocol all communication with Amazon S3
servers is protected from 3rd party eavesdropping. This method is
slower than plain HTTP, and can only be proxied with Python 2.7 or newer
Use HTTPS protocol []: Yes
 
On some networks all internet access must go through a HTTP proxy.
Try setting it here if you can't connect to S3 directly
HTTP Proxy server name:
</pre>
 
=== Creation de buckets ===
La prochaine étape est celle de la création des buckets. Les buckets contiennent des fichiers. Les noms des buckets doivent être uniques à travers la solution complète de stockage objet; il faut alors donner à chaque bucket un nom unique qui est différent de tous ceux créés par les autres utilisateurs; il est fort probable par exemple que les buckets <tt>s3://test/</tt> et <tt>s3://data/</tt> existent déjà. Vous pourriez choisir des noms significatifs comme <tt>s3://def-test-bucket1</tt> ou <tt>s3://atlas_project_bucket</tt>.  Les noms valides contiennent seulement des caractères majuscules ou minuscules, des chiffres, le point, le tiret et le trait de soulignement  (soit A-Z, a-z, 0-9, ., -, et_ ).
 
Pour créer un bucket, lancez la commande <code>mb</code> (pour ''make bucket'')
 
<code>$ s3cmd mb s3://BUCKET_NAME/</code>
 
To see the status of a bucket, use the <code>info</code> command:
 
<code>$ s3cmd info s3://BUCKET_NAME/</code>
 
Le résultat sera semblable à ceci :
 
<pre>
s3://BUCKET_NAME/ (bucket):
  Location:  default
  Payer:    BucketOwner
  Expiration Rule: none
  Policy:    none
  CORS:      none
  ACL:      *anon*: READ
  ACL:      USER: FULL_CONTROL
  URL:      http://object-arbutus.cloud.computecanada.ca/BUCKET_NAME/
</pre>
 
=== Téléversement de fichiers ===
Pour téléverser un fichier dans un bucket, lancez
 
<code>$ s3cmd put --guess-mime-type FILE_NAME.dat s3://BUCKET_NAME/FILE_NAME.dat</code>
 
Le mécanisme MIME (''Multipurpose Internet Mail Extensions'') peut gérer les fichiers selon leur type. Le paramètre <code>--guess-mime-type</code> détermine le type de MIME par l’extension du nom du fichier. Le type MIME par défaut est <code>binary/octet-stream</code>.
 
=== Supprimer un  fichier ===
Pour supprimer un fichier dans un bucket, lancez<br/>
<code>$ s3cmd rm s3://BUCKET_NAME/FILE_NAME.dat</code>
 
=== Listes de contrôle d’accès et politiques ===
Il est possible d’associer des listes de contrôle d’accès (ACL) et des politiques à un bucket pour indiquer qui peut avoir accès à une ressource particulière de l'espace de stockage objet. Ces fonctionnalités sont très avancées. Voici deux exemples simples d’utilisation de ACL avec la commande <code>setacl</code>.
 
<code>$ s3cmd setacl --acl-public -r s3://BUCKET_NAME/</code>
 
Par cette commande, le public peut avoir accès au bucket et, de manière récursive (-r), à chaque fichier dans le bucket. L’accès aux fichiers peut se faire avec des URL comme<br/>
<code><nowiki>https://object-arbutus.cloud.computecanada.ca/BUCKET_NAME/FILE_NAME.dat</nowiki></code>
 
The second ACL example limits access to the bucket to only the owner:
 
<code>$ s3cmd setacl --acl-private s3://BUCKET_NAME/</code>
 
Other more sophisticated examples can be found in the s3cmd [https://www.s3express.com/help/help.html help site] or s3cmd(1) man page.
 
== WinSCP ==
 
=== Installing WinSCP ===
WinSCP can be installed from https://winscp.net/.
 
=== Configuring WinSCP ===
Under "New Session", make the following configurations:
<ul>
<li>File protocol: Amazon S3</li>
<li>Host name: object-arbutus.cloud.computecanada.ca</li>
<li>Port number: 443</li>
<li>Access key ID: 20_DIGIT_ACCESS_KEY provided by the Arbutus team</li>
</ul>
and "Save" these settings as shown below
 
[[File:WinSCP Configuration.png|600px|thumb|center|WinSCP configuration screen]]
 
Next, click on the "Edit" button and then click on "Advanced..." and navigate to "Environment" to "S3" to "Protocol options" to "URL style:" which <b>must</b> changed from "Virtual Host" to "Path" as shown below:
 
[[File:WinSCP Path Configuration.png|600px|thumb|center|WinSCP Path Configuration]]
 
This "Path" setting is important, otherwise WinSCP will not work and you will see hostname resolution errors, like this:
[[File:WinSCP resolve error.png|400px|thumb|center|WinSCP resolve error]]
 
=== Using WinSCP ===
Click on the "Login" button and use the WinSCP GUI to create buckets and to transfer files:
 
[[File:WinSCP transfers.png|800px|thumb|center|WinSCP file transfer screen]]
 
=== ACLs and Policies ===
Unfortunately, as of version 5.19 WinSCP is not capable of managing object storage ACLs or Policies.
 
[[Category:CC-Cloud]]

Latest revision as of 15:28, 21 June 2024

Other languages:

Pour l'information sur comment obtenir de l'espace de stockage objet sur Arbutus, voir cette page wiki. Voyez aussi l'information sur les clients :

Il faut noter que la solution de stockage objet sur Arbutus n'utilise pas l’approche S3 Virtual Hosting d’Amazon avec des buckets DNS, contrairement à ces clients qui l’offrent par défaut. Pour ne pas utiliser cette approche, il faut donc configurer les clients en conséquence.