Journalisation

La journalisation et la surveillance fonctionnent de concert pour vous aider à comprendre et optimiser les performances des applications, ainsi qu'à diagnostiquer les erreurs et les problèmes liés au système. Vous devez activer les journaux récapitulatifs pour tous les appels d'API et les journaux détaillés pour les appels d'API ayant échoué afin de pouvoir fournir les journaux d'appels d'API lorsque vous avez besoin d'assistance technique.

Journalisation de la bibliothèque cliente

Les bibliothèques clientes de l'API Google Ads sont fournies avec une journalisation intégrée. Pour en savoir plus sur la journalisation spécifique à la plate-forme, consultez la documentation de journalisation de la bibliothèque cliente de votre choix.

Langue Guide
Java Documentation sur la journalisation pour Java
.NET Documentation sur la journalisation pour .NET
PHP Documentation sur la journalisation pour PHP
Python Documentation de journalisation pour Python
Ruby Documentation de journalisation pour Ruby
Perl Documentation sur la journalisation pour Perl

Format du journal

Les bibliothèques clientes de l'API Google Ads génèrent un journal détaillé et un journal récapitulatif pour chaque appel d'API. Le journal détaillé contient tous les détails de l'appel d'API, tandis que le journal récapitulatif contient des informations minimales sur l'appel d'API. Un exemple de chaque type de journal est affiché, les journaux étant tronqués et mis en forme pour plus de lisibilité.

Journal récapitulatif

GoogleAds.SummaryRequestLogs Warning: 1 : [2023-09-15 19:58:39Z] -
Request made: Host: , Method: /google.ads.googleads.v14.services.GoogleAdsService/SearchStream,
ClientCustomerID: 5951878031, RequestID: hELhBPNlEDd8mWYcZu7b8g,
IsFault: True, FaultMessage: Status(StatusCode="InvalidArgument",
Detail="Request contains an invalid argument.")

Journal détaillé

GoogleAds.DetailedRequestLogs Verbose: 1 : [2023-11-02 21:09:36Z] -
---------------BEGIN API CALL---------------

Request
-------

Method Name: /google.ads.googleads.v14.services.GoogleAdsService/SearchStream
Host:
Headers: {
  "x-goog-api-client": "gl-dotnet/5.0.0 gapic/17.0.1 gax/4.2.0 grpc/2.46.3 gccl/3.0.1 pb/3.21.5",
  "developer-token": "REDACTED",
  "login-customer-id": "1234567890",
  "x-goog-request-params": "customer_id=4567890123"
}

{ "customerId": "4567890123", "query": "SELECT ad_group_criterion.type FROM
  ad_group_criterion WHERE ad_group.status IN(ENABLED, PAUSED) AND
  campaign.status IN(ENABLED, PAUSED) ", "summaryRowSetting": "NO_SUMMARY_ROW" }

Response
--------
Headers: {
  "date": "Thu, 02 Nov 2023 21:09:35 GMT",
  "alt-svc": "h3-29=\":443\"; ma=2592000"
}

{
  "results": [ {
    "adGroupCriterion": {
      "resourceName": "customers/4567890123/adGroupCriteria/456789456789~123456123467",
      "type": "KEYWORD"
    } }, {
    "adGroupCriterion": {
      "resourceName": "customers/4567890123/adGroupCriteria/456789456789~56789056788",
      "type": "KEYWORD"
    } } ],
    "fieldMask": "adGroupCriterion.type", "requestId": "VsJ4F00ew6s9heHvAJ-abw"
}
----------------END API CALL----------------

Que faire si je n'utilise pas de bibliothèque cliente ?

Si vous n'utilisez pas de bibliothèque cliente, implémentez votre propre journalisation pour capturer les détails des appels d'API sortants et entrants. Vous devez consigner au moins la valeur de l'en-tête de réponse request-id, qui peut ensuite être partagée avec les équipes d'assistance technique si nécessaire.

Enregistrer des journaux dans le cloud

De nombreux outils vous permettent de capturer des journaux et des métriques de performances pour votre application. Par exemple, vous pouvez utiliser Google Cloud Logging pour consigner les métriques de performances dans votre projet Google Cloud. Vous pouvez ainsi configurer des tableaux de bord et des alertes dans Google Cloud Monitoring pour utiliser les métriques journalisées.

Cloud Logging propose des bibliothèques clientes pour tous les langages de bibliothèque cliente de l'API Google Ads compatibles, à l'exception de Perl. Dans la plupart des cas, il est donc possible de se connecter à Cloud Logging directement depuis l'intégration de votre bibliothèque cliente. Pour d'autres langages, y compris Perl, Cloud Logging propose également une API REST.

Il existe plusieurs options pour la journalisation dans Cloud Logging ou un autre outil à partir d'une bibliothèque cliente de l'API Google Ads. Chaque option présente ses propres compromis en termes de temps d'implémentation, de complexité et de performances. Réfléchissez bien à ces compromis avant de choisir la solution à implémenter.

Option 1: Écrire des journaux locaux dans le cloud à partir d'un processus en arrière-plan

Vous pouvez écrire les journaux de la bibliothèque cliente dans un fichier local sur votre machine en modifiant votre configuration de journalisation. Une fois les journaux générés dans un fichier local, vous pouvez configurer un daemon pour les collecter et les envoyer dans le cloud.

L'une des limites de cette approche est que certaines métriques de performances ne seront pas collectées par défaut. Les journaux de la bibliothèque cliente incluent des informations provenant des objets de requête et de réponse. Par conséquent, les métriques de latence ne seront pas incluses, sauf si des modifications supplémentaires sont apportées pour les consigner également.

Option 2: Exécuter votre application sur Compute Engine et installer l'agent Ops

Si votre application s'exécute sur Compute Engine, vous pouvez envoyer vos journaux à Google Cloud Logging en installant l'agent Ops. L'agent Ops peut être configuré pour envoyer les journaux de votre application à Cloud Logging, en plus des métriques et des journaux envoyés par défaut.

Si votre application s'exécute déjà dans un environnement Google Cloud ou si vous envisagez de la migrer vers Google Cloud, cette option est idéale.

Option 3: Implémenter la journalisation dans le code de votre application

Vous pouvez effectuer la journalisation directement à partir du code de l'application de deux manières:

  1. Intégration de calculs de métriques et d'instructions de journalisation à chaque emplacement applicable de votre code. Cette option est plus réalisable pour les bases de code plus petites, où la portée et les coûts de maintenance d'un tel changement seraient minimes.

  2. Implémentation d'une interface de journalisation. Si la logique de l'application peut être abstraite afin que différentes parties de l'application héritent de la même classe de base, la logique de journalisation peut être implémentée dans cette classe de base. Cette option est généralement préférée à l'intégration d'instructions de journalisation dans le code de l'application, car elle est plus facile à gérer et à mettre à l'échelle. Pour les bases de code plus importantes, la facilité de maintenance et l'évolutivité de cette solution sont d'autant plus pertinentes.

L'une des limites de cette approche est que les journaux de requêtes et de réponses complets ne sont pas disponibles à partir du code de l'application. Les objets de requête et de réponse complets sont accessibles à partir des intercepteurs gRPC. C'est ainsi que la journalisation de la bibliothèque cliente intégrée obtient les journaux de requête et de réponse. En cas d'erreur, des informations supplémentaires peuvent être disponibles dans l'objet d'exception, mais moins de détails sont disponibles pour les réponses réussies dans la logique de l'application. Par exemple, dans la plupart des cas, l'ID de requête d'une requête réussie n'est pas accessible à partir des objets de réponse de l'API Google Ads.

Option 4: Implémenter un intercepteur de journalisation gRPC personnalisé

gRPC est compatible avec les intercepteurs unaires et de streaming, qui peuvent accéder aux objets de requête et de réponse lorsqu'ils passent entre le client et le serveur. Les bibliothèques clientes de l'API Google Ads utilisent des intercepteurs gRPC pour proposer une prise en charge intégrée de la journalisation. De même, vous pouvez implémenter un intercepteur gRPC personnalisé pour accéder aux objets de requête et de réponse, extraire des informations à des fins de journalisation et de surveillance, et écrire ces données à l'emplacement de votre choix.

Contrairement à certaines des autres solutions présentées ici, l'implémentation d'un intercepteur gRPC personnalisé vous permet de capturer des objets de requête et de réponse à chaque requête, et d'implémenter une logique supplémentaire pour capturer les détails de la requête. Par exemple, vous pouvez calculer le temps écoulé d'une requête en implémentant une logique de chronométrage des performances dans l'intercepteur personnalisé lui-même, puis consigner la métrique dans Google Cloud Logging pour la rendre disponible pour la surveillance de la latence dans Google Cloud Monitoring.

Intercepteur Google Cloud Logging personnalisé en Python

Pour illustrer cette solution, nous avons écrit un exemple d'intercepteur de journalisation personnalisé en Python. L'intercepteur personnalisé est créé et transmis au client de service. Il accède ensuite aux objets de requête et de réponse qui transitent à chaque appel de méthode de service, traite les données de ces objets et les envoie à Google Cloud Logging.

En plus des données provenant des objets de requête et de réponse, l'exemple implémente une logique supplémentaire pour capturer le temps écoulé depuis la requête, ainsi que d'autres métadonnées utiles à des fins de surveillance, comme si la requête a réussi ou non. Pour en savoir plus sur l'utilité de ces informations, à la fois en général pour la surveillance et spécifiquement lorsque vous combinez Google Cloud Logging et Google Cloud Monitoring, consultez le guide de surveillance.

# Copyright 2022 Google LLC
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
#     https://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
"""A custom gRPC Interceptor that logs requests and responses to Cloud Logging.

The custom interceptor object is passed into the get_service method of the
GoogleAdsClient. It intercepts requests and responses, parses them into a
human readable structure and logs them using the logging service instantiated
within the class (in this case, a Cloud Logging client).
"""

import logging
import time

from google.cloud import logging
from grpc import UnaryUnaryClientInterceptor, UnaryStreamClientInterceptor

from google.ads.googleads.interceptors import LoggingInterceptor, mask_message


class CloudLoggingInterceptor(LoggingInterceptor):
    """An interceptor that logs rpc request and response details to Google Cloud Logging.

    This class inherits logic from the LoggingInterceptor, which simplifies the
    implementation here. Some logic is required here in order to make the
    underlying logic work -- comments make note of this where applicable.
    NOTE: Inheriting from the LoggingInterceptor class could yield unexpected side
    effects. For example, if the LoggingInterceptor class is updated, this class would
    inherit the updated logic, which could affect its functionality. One option to avoid
    this is to inherit from the Interceptor class instead, and selectively copy whatever
    logic is needed from the LoggingInterceptor class."""

    def __init__(self, api_version):
        """Initializer for the CloudLoggingInterceptor.

        Args:
            api_version: a str of the API version of the request.
        """
        super().__init__(logger=None, api_version=api_version)
        # Instantiate the Cloud Logging client.
        logging_client = logging.Client()
        self.logger = logging_client.logger("cloud_logging")

    def log_successful_request(
        self,
        method,
        customer_id,
        metadata_json,
        request_id,
        request,
        trailing_metadata_json,
        response,
    ):
        """Handles logging of a successful request.

        Args:
            method: The method of the request.
            customer_id: The customer ID associated with the request.
            metadata_json: A JSON str of initial_metadata.
            request_id: A unique ID for the request provided in the response.
            request: An instance of a request proto message.
            trailing_metadata_json: A JSON str of trailing_metadata.
            response: A grpc.Call/grpc.Future instance.
        """
        # Retrieve and mask the RPC result from the response future.
        # This method is available from the LoggingInterceptor class.
        # Ensure self._cache is set in order for this to work.
        # The response result could contain up to 10,000 rows of data,
        # so consider truncating this value before logging it, to save
        # on data storage costs and maintain readability.
        result = self.retrieve_and_mask_result(response)

        # elapsed_ms is the approximate elapsed time of the RPC, in milliseconds.
        # There are different ways to define and measure elapsed time, so use
        # whatever approach makes sense for your monitoring purposes.
        # rpc_start and rpc_end are set in the intercept_unary_* methods below.
        elapsed_ms = (self.rpc_end - self.rpc_start) * 1000

        debug_log = {
            "method": method,
            "host": metadata_json,
            "request_id": request_id,
            "request": str(request),
            "headers": trailing_metadata_json,
            "response": str(result),
            "is_fault": False,
            "elapsed_ms": elapsed_ms,
        }
        self.logger.log_struct(debug_log, severity="DEBUG")

        info_log = {
            "customer_id": customer_id,
            "method": method,
            "request_id": request_id,
            "is_fault": False,
            # Available from the Interceptor class.
            "api_version": self._api_version,
        }
        self.logger.log_struct(info_log, severity="INFO")

    def log_failed_request(
        self,
        method,
        customer_id,
        metadata_json,
        request_id,
        request,
        trailing_metadata_json,
        response,
    ):
        """Handles logging of a failed request.

        Args:
            method: The method of the request.
            customer_id: The customer ID associated with the request.
            metadata_json: A JSON str of initial_metadata.
            request_id: A unique ID for the request provided in the response.
            request: An instance of a request proto message.
            trailing_metadata_json: A JSON str of trailing_metadata.
            response: A JSON str of the response message.
        """
        exception = self._get_error_from_response(response)
        exception_str = self._parse_exception_to_str(exception)
        fault_message = self._get_fault_message(exception)

        info_log = {
            "method": method,
            "endpoint": self.endpoint,
            "host": metadata_json,
            "request_id": request_id,
            "request": str(request),
            "headers": trailing_metadata_json,
            "exception": exception_str,
            "is_fault": True,
        }
        self.logger.log_struct(info_log, severity="INFO")

        error_log = {
            "method": method,
            "endpoint": self.endpoint,
            "request_id": request_id,
            "customer_id": customer_id,
            "is_fault": True,
            "fault_message": fault_message,
        }
        self.logger.log_struct(error_log, severity="ERROR")

    def intercept_unary_unary(self, continuation, client_call_details, request):
        """Intercepts and logs API interactions.

        Overrides abstract method defined in grpc.UnaryUnaryClientInterceptor.

        Args:
            continuation: a function to continue the request process.
            client_call_details: a grpc._interceptor._ClientCallDetails
                instance containing request metadata.
            request: a SearchGoogleAdsRequest or SearchGoogleAdsStreamRequest
                message class instance.

        Returns:
            A grpc.Call/grpc.Future instance representing a service response.
        """
        # Set the rpc_end value to current time when RPC completes.
        def update_rpc_end(response_future):
            self.rpc_end = time.perf_counter()

        # Capture precise clock time to later calculate approximate elapsed
        # time of the RPC.
        self.rpc_start = time.perf_counter()

        # The below call is REQUIRED.
        response = continuation(client_call_details, request)

        response.add_done_callback(update_rpc_end)

        self.log_request(client_call_details, request, response)

        # The below return is REQUIRED.
        return response

    def intercept_unary_stream(
        self, continuation, client_call_details, request
    ):
        """Intercepts and logs API interactions for Unary-Stream requests.

        Overrides abstract method defined in grpc.UnaryStreamClientInterceptor.

        Args:
            continuation: a function to continue the request process.
            client_call_details: a grpc._interceptor._ClientCallDetails
                instance containing request metadata.
            request: a SearchGoogleAdsRequest or SearchGoogleAdsStreamRequest
                message class instance.

        Returns:
            A grpc.Call/grpc.Future instance representing a service response.
        """

        def on_rpc_complete(response_future):
            self.rpc_end = time.perf_counter()
            self.log_request(client_call_details, request, response_future)

        # Capture precise clock time to later calculate approximate elapsed
        # time of the RPC.
        self.rpc_start = time.perf_counter()

        # The below call is REQUIRED.
        response = continuation(client_call_details, request)

        # Set self._cache to the cache on the response wrapper in order to
        # access the streaming logs. This is REQUIRED in order to log streaming
        # requests.
        self._cache = response.get_cache()

        response.add_done_callback(on_rpc_complete)

        # The below return is REQUIRED.
        return response