Как можно скорее заполните данные об источниках трафика Google Рекламы (GA 360).
Оптимизируйте свои подборки
Сохраняйте и классифицируйте контент в соответствии со своими настройками.
Если вы используете экспорт BigQuery Fresh Daily, вы можете увидеть Data Not Available
для некоторых полей traffic_source
. Это руководство поможет вам автоматически заполнить большую часть недостающих данных об источниках трафика в существующих экспортированных данных, как только они станут доступны, обычно к 5 часам утра каждый день.
Вот шаги для автоматизации обратной засыпки:
- Прислушивайтесь к ежедневному сигналу о полноте от BigQuery.
- Определите события, в которых отсутствуют данные об источниках трафика, в экспорте BigQuery.
- Запросите полные данные об этих событиях из Google Ads.
- Объедините полные данные о событиях с помощью экспорта BigQuery.
Создать тему Pub/Sub
- Откройте Pub/Sub в левом навигационном меню консоли Google Cloud . Если вы не видите Pub/Sub , найдите его в строке поиска консоли Google Cloud:

- Нажмите + СОЗДАТЬ ТЕМУ во вкладке Темы :

- Введите имя в поле «Идентификатор темы» .
- Выберите «Добавить подписку по умолчанию» , остальные параметры оставьте пустыми:

- Нажмите Создать .
Создание приемника маршрутизатора журналов
- Откройте маршрутизатор журнала в консоли Google Cloud:

- Нажмите Создать раковину :

- Введите имя и описание вашей раковины, затем нажмите «Далее» .
- Выберите тему Cloud Pub/Sub в качестве службы приемника.
- Выберите созданную вами тему и нажмите «Далее».
Введите следующий код в фильтр включения сборки :
logName="projects/YOUR-PROJECT-ID/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status"
Замените YOUR-PROJECT-ID на идентификатор вашего проекта консоли Google Cloud.
Нажмите «Далее» , затем нажмите «Создать приемник» . Вам не нужно фильтровать журналы.
Убедитесь, что приемник теперь указан в разделе «Приемники маршрутизатора журналов» .
Присоединяйтесь к недостающим данным
Используйте функцию Cloud Run для автоматического выполнения кода для обратного заполнения данных источника трафика, когда Pub/Sub обнаруживает сигнал полноты:
- Открытые функции Cloud Run :

- Нажмите СОЗДАТЬ ФУНКЦИЮ :

- Выберите функцию Cloud Run для среды .
- Введите имя для вашей функции.
- Выберите Cloud Pub/Sub в качестве типа триггера и созданную вами тему в качестве темы Cloud Pub/Sub .
- Нажмите «Далее» и введите в поле свой код, чтобы объединить данные атрибуции Google Рекламы с экспортом BigQuery.
Если не указано иное, контент на этой странице предоставляется по лицензии Creative Commons "С указанием авторства 4.0", а примеры кода – по лицензии Apache 2.0. Подробнее об этом написано в правилах сайта. Java – это зарегистрированный товарный знак корпорации Oracle и ее аффилированных лиц.
Последнее обновление: 2024-12-19 UTC.
[null,null,["Последнее обновление: 2024-12-19 UTC."],[],["The core process addresses missing traffic source data in BigQuery Fresh Daily exports. It involves listening for a daily completeness signal via Pub/Sub, identifying incomplete events, and then querying Google Ads for the complete data. This complete data is then joined with the existing BigQuery export. To achieve this, a Pub/Sub topic and a Log Router sink are created to monitor the completeness signal. Finally, a Cloud Run function is employed to execute the data backfill using a custom code when triggered by the completeness signal.\n"],null,["# Backfill Google Ads traffic source data as soon as possible (GA 360)\n\nIf you use BigQuery Fresh Daily exports, you might see `Data Not Available` for\nsome `traffic_source` fields. This guide helps you automatically backfill most\nof the missing traffic source data in existing exports as soon as it's\navailable, typically by 5 AM each day.\n\nHere are the steps to automate the backfill:\n\n1. Listen for the daily completeness signal from BigQuery.\n2. Identify the events with missing traffic source data in your BigQuery export.\n3. Query the complete data for those events from Google Ads.\n4. Join the complete event data with your BigQuery export.\n\nCreate a Pub/Sub topic\n----------------------\n\n1. Open **Pub/Sub** in the left navigation menu of the [Google Cloud console](https://console.cloud.google.com/). If you don't see **Pub/Sub** , search for it in the Google Cloud console search bar:\n2. Click **+ CREATE TOPIC** in the **Topics** tab:\n3. Enter a name in the **Topic ID** field.\n4. Select **Add a default subscription** , leave the other options blank:\n5. Click **Create**.\n\nCreate a Log Router sink\n------------------------\n\n1. Open **Log router** in the Google Cloud console:\n2. Click **Create sink** :\n3. Enter a name and description for your sink, then click **Next**.\n4. Choose **Cloud Pub/Sub topic** as the sink service.\n5. Choose the topic you created, then click **Next.**\n6. Enter the following code in **Build inclusion filter**:\n\n logName=\"projects/\u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status\"\n\n Replace \u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e with the ID for your Google Cloud console\n project.\n7. Click **Next** , then click **Create sink**. You don't need to filter out any\n logs.\n\n8. Verify the sink is now listed under **Log Router Sinks**.\n\nJoin the missing data\n---------------------\n\nUse a Cloud Run function to automatically execute the code to backfill traffic\nsource data when Pub/Sub detects the completeness signal:\n\n1. Open **Cloud Run functions** :\n2. Click **CREATE FUNCTION** :\n3. Choose **Cloud Run function** for the **Environment**.\n4. Enter a name for your function.\n5. Choose **Cloud Pub/Sub** as the **Trigger type** , and the topic you created as the **Cloud Pub/Sub topic**.\n6. Click **Next**, then enter your code to join the Google Ads attribution data with your BigQuery export in the box."]]