Prova il server MCP per Google Analytics. Installa da
GitHub e consulta l'
annuncio per maggiori dettagli.
Esegui il backfill dei dati delle origini traffico Google Ads il prima possibile (GA 360)
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Se utilizzi le esportazioni giornaliere aggiornate di BigQuery, potresti visualizzare Data Not Available
per alcuni campi traffic_source
. Questa guida ti aiuta a eseguire automaticamente il backfill della maggior parte dei dati delle sorgenti di traffico mancanti nelle esportazioni esistenti non appena sono disponibili, in genere entro le ore 05:00 di ogni giorno.
Ecco i passaggi per automatizzare il backfill:
- Ascolta l'indicatore di completezza giornaliero di BigQuery.
- Identifica gli eventi con dati mancanti sulle sorgenti di traffico nell'esportazione di BigQuery.
- Esegui una query sui dati completi di questi eventi da Google Ads.
- Unisci i dati completi sugli eventi all'esportazione BigQuery.
crea un argomento Pub/Sub
- Apri Pub/Sub nel menu di navigazione a sinistra della console Google Cloud. Se non vedi Pub/Sub, cercalo nella barra di ricerca della console Google Cloud:

- Fai clic su + CREA ARGOMENTO nella scheda Argomenti:

- Inserisci un nome nel campo ID argomento.
- Seleziona Aggiungi una sottoscrizione predefinita, lascia vuote le altre opzioni:

- Fai clic su Crea.
Crea un sink Log Router
- Apri Log Router nella console Google Cloud:

- Fai clic su Crea sink:

- Inserisci un nome e una descrizione per la destinazione e fai clic su Avanti.
- Scegli Argomento Cloud Pub/Sub come servizio sink.
- Scegli l'argomento che hai creato, quindi fai clic su Avanti.
Inserisci il seguente codice in Filtro di inclusione della build:
logName="projects/YOUR-PROJECT-ID/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status"
Sostituisci YOUR-PROJECT-ID con l'ID del progetto della console Google Cloud.
Fai clic su Avanti, quindi su Crea sink. Non è necessario filtrare i log.
Verifica che il sink sia ora elencato in Log Router Sinks (Sink router dei log).
Unisci i dati mancanti
Utilizza una funzione Cloud Run per eseguire automaticamente il codice per il completamento dei dati delle origini traffico quando Pub/Sub rileva l'indicatore di completezza:
- Apri Funzioni Cloud Run:

- Fai clic su CREA FUNZIONE:

- Scegli Funzione Cloud Run per l'Ambiente.
- Inserisci un nome per la funzione.
- Scegli Cloud Pub/Sub come Tipo di trigger e l'argomento che hai creato come Argomento Cloud Pub/Sub.
- Fai clic su Avanti, quindi inserisci il codice per unire i dati di attribuzione di Google Ads con l'esportazione di BigQuery nella casella.
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2024-12-19 UTC.
[null,null,["Ultimo aggiornamento 2024-12-19 UTC."],[],["The core process addresses missing traffic source data in BigQuery Fresh Daily exports. It involves listening for a daily completeness signal via Pub/Sub, identifying incomplete events, and then querying Google Ads for the complete data. This complete data is then joined with the existing BigQuery export. To achieve this, a Pub/Sub topic and a Log Router sink are created to monitor the completeness signal. Finally, a Cloud Run function is employed to execute the data backfill using a custom code when triggered by the completeness signal.\n"],null,["# Backfill Google Ads traffic source data as soon as possible (GA 360)\n\nIf you use BigQuery Fresh Daily exports, you might see `Data Not Available` for\nsome `traffic_source` fields. This guide helps you automatically backfill most\nof the missing traffic source data in existing exports as soon as it's\navailable, typically by 5 AM each day.\n\nHere are the steps to automate the backfill:\n\n1. Listen for the daily completeness signal from BigQuery.\n2. Identify the events with missing traffic source data in your BigQuery export.\n3. Query the complete data for those events from Google Ads.\n4. Join the complete event data with your BigQuery export.\n\nCreate a Pub/Sub topic\n----------------------\n\n1. Open **Pub/Sub** in the left navigation menu of the [Google Cloud console](https://console.cloud.google.com/). If you don't see **Pub/Sub** , search for it in the Google Cloud console search bar:\n2. Click **+ CREATE TOPIC** in the **Topics** tab:\n3. Enter a name in the **Topic ID** field.\n4. Select **Add a default subscription** , leave the other options blank:\n5. Click **Create**.\n\nCreate a Log Router sink\n------------------------\n\n1. Open **Log router** in the Google Cloud console:\n2. Click **Create sink** :\n3. Enter a name and description for your sink, then click **Next**.\n4. Choose **Cloud Pub/Sub topic** as the sink service.\n5. Choose the topic you created, then click **Next.**\n6. Enter the following code in **Build inclusion filter**:\n\n logName=\"projects/\u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status\"\n\n Replace \u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e with the ID for your Google Cloud console\n project.\n7. Click **Next** , then click **Create sink**. You don't need to filter out any\n logs.\n\n8. Verify the sink is now listed under **Log Router Sinks**.\n\nJoin the missing data\n---------------------\n\nUse a Cloud Run function to automatically execute the code to backfill traffic\nsource data when Pub/Sub detects the completeness signal:\n\n1. Open **Cloud Run functions** :\n2. Click **CREATE FUNCTION** :\n3. Choose **Cloud Run function** for the **Environment**.\n4. Enter a name for your function.\n5. Choose **Cloud Pub/Sub** as the **Trigger type** , and the topic you created as the **Cloud Pub/Sub topic**.\n6. Click **Next**, then enter your code to join the Google Ads attribution data with your BigQuery export in the box."]]