جرِّب خادم MCP لخدمة "إحصاءات Google". يمكنك تثبيت التطبيق من
GitHub والاطّلاع على
الإعلان لمعرفة المزيد من التفاصيل.
إضافة بيانات مصدر الزيارات في "إعلانات Google" إلى بيانات سابقة في أقرب وقت ممكن (إحصاءات Google 360)
تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
في حال استخدام عمليات التصدير الجديدة يوميًا في BigQuery، قد تظهر لك Data Not Available
في
بعض حقول traffic_source
. يساعدك هذا الدليل في إضافة معظم بيانات مصدر الزيارات المفقودة تلقائيًا في عمليات التصدير الحالية فور توفّرها، عادةً بحلول الساعة 5 صباحًا كل يوم.
في ما يلي خطوات إعداد عملية إضافة البيانات السابقة بشكل آلي:
- انتظِر إشارة اكتمال البيانات اليومية من BigQuery.
- حدِّد الأحداث التي لا تتضمّن بيانات مصدر الزيارات في عملية التصدير في BigQuery.
- ابحث عن البيانات الكاملة لهذه الأحداث من "إعلانات Google".
- يمكنك دمج بيانات الأحداث الكاملة مع عملية التصدير في BigQuery.
إنشاء موضوع Pub/Sub
- افتح Pub/Sub في قائمة التنقّل اليمنى ضمن Google Cloud Console. إذا لم يظهر لك Pub/Sub، ابحث عنه في
شريط البحث في Google Cloud Console:

- انقر على + إنشاء موضوع في علامة التبويب المواضيع:

- أدخِل اسمًا في الحقل رقم تعريف الموضوع.
- انقر على إضافة اشتراك تلقائي، واترك الخيارات الأخرى فارغة:

- انقر على إنشاء.
إنشاء وجهة "موجِّه السجلّات"
- افتح Log router في Google Cloud Console:

- انقر على Create sink (إنشاء وحدة تخزين):

- أدخِل اسمًا ووصفًا للحوض، ثم انقر على التالي.
- اختَر موضوع Cloud Pub/Sub كخدمة وجهة.
- اختَر الموضوع الذي أنشأته، ثم انقر على التالي.
أدخِل الرمز التالي في إنشاء فلتر تضمين:
logName="projects/YOUR-PROJECT-ID/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status"
استبدِل YOUR-PROJECT-ID بمعرّف مشروعك على Google Cloud Console.
انقر على التالي، ثم على إنشاء وحدة تجفيف. لست بحاجة إلى فلترة أي
سجلّات.
تأكَّد من أنّ وحدة الامتصاص مُدرَجة الآن ضمن وحدات امتصاص بيانات "موجِّه السجلّات".
دمج البيانات غير المتوفّرة
استخدِم دالة Cloud Run لتنفيذ الرمز البرمجي تلقائيًا لاسترداد بيانات مصدر
الزيارات عندما يرصد Pub/Sub إشارة الاكتمال:
- افتح وظائف Cloud Run:

- انقر على إنشاء دالة:

- اختَر دالة Cloud Run في البيئة.
- أدخِل اسمًا لدالتّك.
- اختَر Cloud Pub/Sub كـ نوع المشغِّل، والموضوع الذي أنشأته
كـ موضوع Cloud Pub/Sub.
- انقر على التالي، ثم أدخِل الرمز البرمجي لدمج بيانات تحديد المصدر في "إعلانات Google"
مع عملية تصدير BigQuery في المربّع.
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2024-12-19 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2024-12-19 (حسب التوقيت العالمي المتفَّق عليه)"],[],["The core process addresses missing traffic source data in BigQuery Fresh Daily exports. It involves listening for a daily completeness signal via Pub/Sub, identifying incomplete events, and then querying Google Ads for the complete data. This complete data is then joined with the existing BigQuery export. To achieve this, a Pub/Sub topic and a Log Router sink are created to monitor the completeness signal. Finally, a Cloud Run function is employed to execute the data backfill using a custom code when triggered by the completeness signal.\n"],null,["# Backfill Google Ads traffic source data as soon as possible (GA 360)\n\nIf you use BigQuery Fresh Daily exports, you might see `Data Not Available` for\nsome `traffic_source` fields. This guide helps you automatically backfill most\nof the missing traffic source data in existing exports as soon as it's\navailable, typically by 5 AM each day.\n\nHere are the steps to automate the backfill:\n\n1. Listen for the daily completeness signal from BigQuery.\n2. Identify the events with missing traffic source data in your BigQuery export.\n3. Query the complete data for those events from Google Ads.\n4. Join the complete event data with your BigQuery export.\n\nCreate a Pub/Sub topic\n----------------------\n\n1. Open **Pub/Sub** in the left navigation menu of the [Google Cloud console](https://console.cloud.google.com/). If you don't see **Pub/Sub** , search for it in the Google Cloud console search bar:\n2. Click **+ CREATE TOPIC** in the **Topics** tab:\n3. Enter a name in the **Topic ID** field.\n4. Select **Add a default subscription** , leave the other options blank:\n5. Click **Create**.\n\nCreate a Log Router sink\n------------------------\n\n1. Open **Log router** in the Google Cloud console:\n2. Click **Create sink** :\n3. Enter a name and description for your sink, then click **Next**.\n4. Choose **Cloud Pub/Sub topic** as the sink service.\n5. Choose the topic you created, then click **Next.**\n6. Enter the following code in **Build inclusion filter**:\n\n logName=\"projects/\u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status\"\n\n Replace \u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e with the ID for your Google Cloud console\n project.\n7. Click **Next** , then click **Create sink**. You don't need to filter out any\n logs.\n\n8. Verify the sink is now listed under **Log Router Sinks**.\n\nJoin the missing data\n---------------------\n\nUse a Cloud Run function to automatically execute the code to backfill traffic\nsource data when Pub/Sub detects the completeness signal:\n\n1. Open **Cloud Run functions** :\n2. Click **CREATE FUNCTION** :\n3. Choose **Cloud Run function** for the **Environment**.\n4. Enter a name for your function.\n5. Choose **Cloud Pub/Sub** as the **Trigger type** , and the topic you created as the **Cloud Pub/Sub topic**.\n6. Click **Next**, then enter your code to join the Google Ads attribution data with your BigQuery export in the box."]]