Wypróbuj serwer MCP w Google Analytics. Zainstaluj go z
GitHub. Więcej informacji znajdziesz w
ogłoszeniu.
Jak najszybciej uzupełnij dane o źródłach wizyt z Google Ads (GA 360)
Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Jeśli korzystasz z BigQuery Export z odświeżaniem codziennym, w przypadku niektórych pól traffic_source
możesz zobaczyć wartość Data Not Available
. Ten przewodnik pomoże Ci automatycznie uzupełnić większość brakujących danych o źródłach wizyt w dotychczasowych plikach eksportu, gdy tylko będą dostępne (zwykle o 5 rano każdego dnia).
Aby zautomatyzować wypełnianie:
- Odbieraj codzienny sygnał o kompletności z BigQuery.
- Zidentyfikuj w eksporcie BigQuery zdarzenia, w których brakuje danych o źródle ruchu.
- Wyślij do Google Ads zapytanie o pełne dane dotyczące tych zdarzeń.
- Złącz pełne dane o zdarzeniach z BigQuery Export.
Tworzenie tematu Pub/Sub
- W menu nawigacyjnym po lewej stronie w konsoli Google Cloud otwórz Pub/Sub. Jeśli nie widzisz opcji Pub/Sub, wyszukaj ją w pasku wyszukiwania konsoli Google Cloud:

- Na karcie Tematy kliknij + UTWÓRZ TEMAT:

- Wpisz nazwę w polu Identyfikator tematu.
- Wybierz Dodaj subskrypcję domyślną, pozostaw pozostałe opcje puste:

- Kliknij Utwórz.
Tworzenie ujścia routera logów
- Otwórz Router logów w konsoli Google Cloud:

- Kliknij Utwórz ujście:

- Wpisz nazwę i opis zlewozmywaka, a potem kliknij Dalej.
- Jako usługę docelową wybierz temat Cloud Pub/Sub.
- Wybierz utworzony temat, a następnie kliknij Dalej.
W sekcji Tworzenie filtra uwzględniania wpisz ten kod:
logName="projects/YOUR-PROJECT-ID/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status"
Zastąp YOUR-PROJECT-ID identyfikatorem projektu w konsoli Google Cloud.
Kliknij Dalej, a następnie Utwórz ujście. Nie musisz filtrować żadnych logów.
Sprawdź, czy ujście jest widoczne na liście Ujęcia routera dzienników.
Łączenie brakujących danych
Użyj funkcji Cloud Run, aby automatycznie wykonać kod służący do uzupełniania danych źródłowych ruchu, gdy Pub/Sub wykryje sygnał o kompletności:
- Otwórz funkcje Cloud Run:

- Kliknij UTWÓRZ FUNKCJĘ:

- W polu Środowisko wybierz funkcję Cloud Run.
- Wpisz nazwę funkcji.
- Jako Typ aktywatora wybierz Cloud Pub/Sub, a jako Temat Cloud Pub/Sub – utworzony temat.
- Kliknij Dalej, a potem wpisz kod, aby złączać dane atrybucji Google Ads z danymi z BigQuery.
O ile nie stwierdzono inaczej, treść tej strony jest objęta licencją Creative Commons – uznanie autorstwa 4.0, a fragmenty kodu są dostępne na licencji Apache 2.0. Szczegółowe informacje na ten temat zawierają zasady dotyczące witryny Google Developers. Java jest zastrzeżonym znakiem towarowym firmy Oracle i jej podmiotów stowarzyszonych.
Ostatnia aktualizacja: 2024-12-19 UTC.
[null,null,["Ostatnia aktualizacja: 2024-12-19 UTC."],[],["The core process addresses missing traffic source data in BigQuery Fresh Daily exports. It involves listening for a daily completeness signal via Pub/Sub, identifying incomplete events, and then querying Google Ads for the complete data. This complete data is then joined with the existing BigQuery export. To achieve this, a Pub/Sub topic and a Log Router sink are created to monitor the completeness signal. Finally, a Cloud Run function is employed to execute the data backfill using a custom code when triggered by the completeness signal.\n"],null,["# Backfill Google Ads traffic source data as soon as possible (GA 360)\n\nIf you use BigQuery Fresh Daily exports, you might see `Data Not Available` for\nsome `traffic_source` fields. This guide helps you automatically backfill most\nof the missing traffic source data in existing exports as soon as it's\navailable, typically by 5 AM each day.\n\nHere are the steps to automate the backfill:\n\n1. Listen for the daily completeness signal from BigQuery.\n2. Identify the events with missing traffic source data in your BigQuery export.\n3. Query the complete data for those events from Google Ads.\n4. Join the complete event data with your BigQuery export.\n\nCreate a Pub/Sub topic\n----------------------\n\n1. Open **Pub/Sub** in the left navigation menu of the [Google Cloud console](https://console.cloud.google.com/). If you don't see **Pub/Sub** , search for it in the Google Cloud console search bar:\n2. Click **+ CREATE TOPIC** in the **Topics** tab:\n3. Enter a name in the **Topic ID** field.\n4. Select **Add a default subscription** , leave the other options blank:\n5. Click **Create**.\n\nCreate a Log Router sink\n------------------------\n\n1. Open **Log router** in the Google Cloud console:\n2. Click **Create sink** :\n3. Enter a name and description for your sink, then click **Next**.\n4. Choose **Cloud Pub/Sub topic** as the sink service.\n5. Choose the topic you created, then click **Next.**\n6. Enter the following code in **Build inclusion filter**:\n\n logName=\"projects/\u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status\"\n\n Replace \u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e with the ID for your Google Cloud console\n project.\n7. Click **Next** , then click **Create sink**. You don't need to filter out any\n logs.\n\n8. Verify the sink is now listed under **Log Router Sinks**.\n\nJoin the missing data\n---------------------\n\nUse a Cloud Run function to automatically execute the code to backfill traffic\nsource data when Pub/Sub detects the completeness signal:\n\n1. Open **Cloud Run functions** :\n2. Click **CREATE FUNCTION** :\n3. Choose **Cloud Run function** for the **Environment**.\n4. Enter a name for your function.\n5. Choose **Cloud Pub/Sub** as the **Trigger type** , and the topic you created as the **Cloud Pub/Sub topic**.\n6. Click **Next**, then enter your code to join the Google Ads attribution data with your BigQuery export in the box."]]