Lorsque vous travaillez avec votre contact commercial ou votre équipe d'assistance pour configurer l'accès à Data Transfer V.2.0, un nom de bucket vous est fourni. Vous devrez fournir à votre contact commercial un groupe Google qui vous permettra de contrôler l'accès à vos fichiers de données dans Google Cloud Storage.
Vous pouvez choisir d'accéder à vos données à l'aide d'un utilitaire ou d'écrire votre propre code.
Accéder aux données avec gsutil
L'outil gsutil est une application de ligne de commande, écrite en Python, qui vous permet d'accéder à vos données sans avoir à coder. Vous pouvez, par exemple, utiliser gsutil dans le cadre d'un script ou d'un fichier de commandes au lieu de créer des applications personnalisées.
Pour commencer à utiliser gsutil, consultez la page gsutil documentation. L'outil vous demandera vos identifiants la première fois vous les utilisez, puis les stockez pour une utilisation ultérieure.
Exemples gsutil
Vous pouvez lister tous vos fichiers à l'aide de gsutil comme suit :
gsutil ls gs://[bucket_name]/[object name/file name]
gsutil utilise une syntaxe très proche de celle d'UNIX, y compris l'astérisque (*), ce qui vous permet de lister tous les fichiers NetworkImpression :
gsutil ls gs://[bucket_name]/dcm_account6837_impression_*
Il est également facile de télécharger un fichier:
gsutil cp gs://[bucket_name]/dcm_account6837_impression_2015120100.log.gz
Vous pouvez copier vos fichiers à partir des buckets Google DT dispersés vers votre propre bucket GCS de l'API Google à l'aide d'un script shell Unix. Deux options s'offrent à vous :
Dans gsutil, si vous utilisez un système Unix, exécutez la commande suivante pour tous vos buckets tous les jours :
$ day=$(date --date="1 days ago" +"%m-%d-%Y") $ gsutil -m cp gs://{<dcmhashid_A>,<dcmhashid_B>,etc.}/*$day*.log.gz gs://<client_bucket>/
Vous pouvez également utiliser un fichier bash, ce qui est un peu plus compliqué :
#!/bin/bash set -x buckets={dfa_-hasid_A dfa_-hashid_B,...} #include all hash ids day=$(date --date="1 days ago" +"%m-%d-%Y") for b in ${buckets[@]}; do / gsutil -m cp gs://$b/*$day*.log.gz gs://
/ / done
Accéder aux données de manière programmatique
Google Cloud Storage propose des API et des exemples pour de nombreux programmes qui vous permettent d'accéder à vos données par programmation. Vous trouverez ci-dessous les étapes spécifiques à Data Transfer v2.0 que vous devez suivre pour créer une intégration fonctionnelle.
Obtenir un compte de service
Pour commencer à utiliser Data Transfer v2.0, vous devez d'abord utiliser l'outil de configuration, qui vous guide tout au long de la création d'un projet dans console Google APIs, activer l'API et créer des identifiants.
Pour configurer un compte de service, procédez comme suit :
- Cliquez sur Créer des identifiants > Clé de compte de service.
- Indiquez si vous souhaitez télécharger la clé publique/privée du compte de service sous forme de fichier P12 standard ou de fichier JSON pouvant être chargé par une bibliothèque cliente d'API Google.
Votre nouvelle paire de clés publique et privée est générée et téléchargée sur votre ordinateur. Il s'agit de la seule copie de cette clé. Vous êtes responsable de leur stockage en toute sécurité.
Gardez cette fenêtre ouverte, vous aurez besoin de l'adresse e-mail du compte de service à l'étape suivante.
Ajouter un compte de service à votre groupe
- Accédez au groupe Google.
- Cliquez sur "Mes groupes", puis sélectionnez le groupe que vous utilisez pour gérer l'accès à votre bucket Cloud Storage DT v2.0.
- Cliquez sur "Gérer".
- Ne cliquez pas sur "Inviter des membres".
- Cliquez sur "Ajouter des membres directement".
- Copiez l'adresse e-mail du compte de service de l'étape précédente dans le zone de membres
- Sélectionnez Aucun e-mail
- Cliquez sur le bouton Ajouter .
J'ai cliqué sur "Inviter des membres"
Portée
Toute portée transmise à Cloud Storage doit être en lecture seule.
Par exemple, lorsque vous utilisez la bibliothèque cliente Java, le champ d'application utilisation est:
StorageScopes.DEVSTORAGE_READ_ONLY