سرور MCP را برای Google Analytics امتحان کنید. از
GitHub نصب کنید و برای جزئیات بیشتر به
اطلاعیه مراجعه کنید.
تکمیل اطلاعات منبع ترافیک Google Ads در اسرع وقت (GA 360)
با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
اگر از صادرات روزانه BigQuery تازه استفاده میکنید، ممکن است برای برخی از فیلدهای traffic_source
Data Not Available
ببینید. این راهنما به شما کمک میکند تا بیشتر دادههای منبع ترافیک گمشده در صادرات موجود را بهمحض در دسترس قرار گرفتن، معمولاً تا ساعت 5 صبح هر روز، بهطور خودکار تکمیل کنید.
در اینجا مراحلی برای خودکارسازی backfill آورده شده است:
- به سیگنال کامل بودن روزانه BigQuery گوش دهید.
- رویدادهایی را با داده های منبع ترافیک گمشده در صادرات BigQuery خود شناسایی کنید.
- اطلاعات کامل آن رویدادها را از Google Ads جستجو کنید.
- با صادرات BigQuery به دادههای رویداد کامل بپیوندید.
یک موضوع Pub/Sub ایجاد کنید
- Pub/Sub را در منوی پیمایش سمت چپ کنسول Google Cloud باز کنید. اگر Pub/Sub را نمیبینید، آن را در نوار جستجوی کنسول Google Cloud جستجو کنید:

- روی + ایجاد موضوع در تب Topics کلیک کنید:

- نامی را در قسمت شناسه موضوع وارد کنید.
- افزودن اشتراک پیشفرض را انتخاب کنید، بقیه گزینهها را خالی بگذارید:

- روی ایجاد کلیک کنید.
یک سینک Log Router ایجاد کنید
- روتر Log را در کنسول Google Cloud باز کنید:

- روی ایجاد سینک کلیک کنید:

- یک نام و توضیحات برای سینک خود وارد کنید، سپس روی Next کلیک کنید.
- موضوع Cloud Pub/Sub را به عنوان سرویس سینک انتخاب کنید.
- موضوعی را که ایجاد کرده اید انتخاب کنید، سپس روی Next کلیک کنید.
کد زیر را در Build inclusion filter وارد کنید:
logName="projects/YOUR-PROJECT-ID/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status"
شناسه پروژه کنسول Google Cloud خود را جایگزین YOUR-PROJECT-ID کنید.
روی Next کلیک کنید، سپس روی ایجاد سینک کلیک کنید. شما نیازی به فیلتر کردن هیچ گزارشی ندارید.
بررسی کنید که سینک اکنون در زیر Log Router Sinks فهرست شده است.
به داده های از دست رفته بپیوندید
از یک تابع Cloud Run برای اجرای خودکار کد برای تکمیل داده های منبع ترافیک زمانی که Pub/Sub سیگنال کامل بودن را تشخیص می دهد، استفاده کنید:
- باز کردن توابع Cloud Run :

- روی CREATE FUNCTION کلیک کنید:

- عملکرد Cloud Run را برای Environment انتخاب کنید.
- یک نام برای تابع خود وارد کنید.
- Cloud Pub/Sub را به عنوان نوع Trigger و موضوعی را که ایجاد کرده اید به عنوان Cloud Pub/Sub موضوع انتخاب کنید.
- روی Next کلیک کنید، سپس کد خود را برای پیوستن به دادههای انتساب Google Ads با صادرات BigQuery خود در کادر وارد کنید.
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2024-12-19 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2024-12-19 بهوقت ساعت هماهنگ جهانی."],[],["The core process addresses missing traffic source data in BigQuery Fresh Daily exports. It involves listening for a daily completeness signal via Pub/Sub, identifying incomplete events, and then querying Google Ads for the complete data. This complete data is then joined with the existing BigQuery export. To achieve this, a Pub/Sub topic and a Log Router sink are created to monitor the completeness signal. Finally, a Cloud Run function is employed to execute the data backfill using a custom code when triggered by the completeness signal.\n"],null,["# Backfill Google Ads traffic source data as soon as possible (GA 360)\n\nIf you use BigQuery Fresh Daily exports, you might see `Data Not Available` for\nsome `traffic_source` fields. This guide helps you automatically backfill most\nof the missing traffic source data in existing exports as soon as it's\navailable, typically by 5 AM each day.\n\nHere are the steps to automate the backfill:\n\n1. Listen for the daily completeness signal from BigQuery.\n2. Identify the events with missing traffic source data in your BigQuery export.\n3. Query the complete data for those events from Google Ads.\n4. Join the complete event data with your BigQuery export.\n\nCreate a Pub/Sub topic\n----------------------\n\n1. Open **Pub/Sub** in the left navigation menu of the [Google Cloud console](https://console.cloud.google.com/). If you don't see **Pub/Sub** , search for it in the Google Cloud console search bar:\n2. Click **+ CREATE TOPIC** in the **Topics** tab:\n3. Enter a name in the **Topic ID** field.\n4. Select **Add a default subscription** , leave the other options blank:\n5. Click **Create**.\n\nCreate a Log Router sink\n------------------------\n\n1. Open **Log router** in the Google Cloud console:\n2. Click **Create sink** :\n3. Enter a name and description for your sink, then click **Next**.\n4. Choose **Cloud Pub/Sub topic** as the sink service.\n5. Choose the topic you created, then click **Next.**\n6. Enter the following code in **Build inclusion filter**:\n\n logName=\"projects/\u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status\"\n\n Replace \u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e with the ID for your Google Cloud console\n project.\n7. Click **Next** , then click **Create sink**. You don't need to filter out any\n logs.\n\n8. Verify the sink is now listed under **Log Router Sinks**.\n\nJoin the missing data\n---------------------\n\nUse a Cloud Run function to automatically execute the code to backfill traffic\nsource data when Pub/Sub detects the completeness signal:\n\n1. Open **Cloud Run functions** :\n2. Click **CREATE FUNCTION** :\n3. Choose **Cloud Run function** for the **Environment**.\n4. Enter a name for your function.\n5. Choose **Cloud Pub/Sub** as the **Trigger type** , and the topic you created as the **Cloud Pub/Sub topic**.\n6. Click **Next**, then enter your code to join the Google Ads attribution data with your BigQuery export in the box."]]