כדאי לנסות את שרת ה-MCP ל-Google Analytics. אפשר להתקין מ-
GitHub, ולקרוא את
ההודעה לפרטים נוספים.
מילוי נתונים חסרים של מקורות תנועה ב-Google Ads בהקדם האפשרי (GA 360)
קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
אם אתם משתמשים בייצוא יומי ב-BigQuery, יכול להיות שתראו את הערך Data Not Available
בשדות מסוימים של traffic_source
. במדריך הזה נסביר איך למלא באופן אוטומטי את רוב הנתונים החסרים של מקורות התנועה בייצוא הקיים ברגע שהם יהיו זמינים, בדרך כלל עד השעה 5:00 בכל יום.
כך מבצעים אוטומציה של מילוי החסר:
- ממתינים לקבלת האות היומי לגבי השלמות מ-BigQuery.
- זיהוי האירועים שבהם חסרים נתונים של מקורות תנועה בייצוא ל-BigQuery.
- שולחים שאילתה ל-Google Ads כדי לקבל את הנתונים המלאים של האירועים האלה.
- משלבים את נתוני האירועים המלאים עם הייצוא ל-BigQuery.
יוצרים נושא Pub/Sub
- פותחים את Pub/Sub בתפריט הניווט הימני של מסוף Google Cloud. אם האפשרות Pub/Sub לא מופיעה, מחפשים אותה בסרגל החיפוש של מסוף Google Cloud:

- לוחצים על + CREATE TOPIC בכרטיסייה Topics:

- מזינים שם בשדה Topic ID.
- בוחרים באפשרות Add a default subscription (הוספת מינוי ברירת מחדל), משאירים את שאר האפשרויות ריקות:

- לוחצים על יצירה.
יצירת בור ניתוב ליומן
- פותחים את Log router במסוף Google Cloud:

- לוחצים על Create sink:

- מזינים שם ותיאור ל-sink ולוחצים על הבא.
- בוחרים באפשרות נושא Cloud Pub/Sub כשירות היעד.
- בוחרים את הנושא שיצרתם ולוחצים על הבא.
מזינים את הקוד הבא בשדה מסנן הכללה של build:
logName="projects/YOUR-PROJECT-ID/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status"
מחליפים את YOUR-PROJECT-ID במזהה של הפרויקט במסוף Google Cloud.
לוחצים על Next ואז על Create sink. אין צורך לסנן יומנים.
מוודאים שהסינוק מופיע עכשיו בקטע Log Router Sinks.
מצרפים את הנתונים החסרים
משתמשים בפונקציה של Cloud Run כדי להריץ את הקוד באופן אוטומטי ולמלא את החסר בנתוני מקור התנועה כשמערכת Pub/Sub מזהה את אות ההשלמה:
- פותחים את פונקציות Cloud Run:

- לוחצים על CREATE FUNCTION:

- בוחרים באפשרות פונקציית Cloud Run בשדה סביבה.
- נותנים שם לפונקציה.
- בוחרים באפשרות Cloud Pub/Sub בתור Trigger type, ובנושא שיצרתם בתור Cloud Pub/Sub topic.
- לוחצים על הבא ומזינים את הקוד כדי לצרף את נתוני השיוך של Google Ads לייצוא מ-BigQuery בתיבה.
אלא אם צוין אחרת, התוכן של דף זה הוא ברישיון Creative Commons Attribution 4.0 ודוגמאות הקוד הן ברישיון Apache 2.0. לפרטים, ניתן לעיין במדיניות האתר Google Developers. Java הוא סימן מסחרי רשום של חברת Oracle ו/או של השותפים העצמאיים שלה.
עדכון אחרון: 2024-12-19 (שעון UTC).
[null,null,["עדכון אחרון: 2024-12-19 (שעון UTC)."],[],["The core process addresses missing traffic source data in BigQuery Fresh Daily exports. It involves listening for a daily completeness signal via Pub/Sub, identifying incomplete events, and then querying Google Ads for the complete data. This complete data is then joined with the existing BigQuery export. To achieve this, a Pub/Sub topic and a Log Router sink are created to monitor the completeness signal. Finally, a Cloud Run function is employed to execute the data backfill using a custom code when triggered by the completeness signal.\n"],null,["# Backfill Google Ads traffic source data as soon as possible (GA 360)\n\nIf you use BigQuery Fresh Daily exports, you might see `Data Not Available` for\nsome `traffic_source` fields. This guide helps you automatically backfill most\nof the missing traffic source data in existing exports as soon as it's\navailable, typically by 5 AM each day.\n\nHere are the steps to automate the backfill:\n\n1. Listen for the daily completeness signal from BigQuery.\n2. Identify the events with missing traffic source data in your BigQuery export.\n3. Query the complete data for those events from Google Ads.\n4. Join the complete event data with your BigQuery export.\n\nCreate a Pub/Sub topic\n----------------------\n\n1. Open **Pub/Sub** in the left navigation menu of the [Google Cloud console](https://console.cloud.google.com/). If you don't see **Pub/Sub** , search for it in the Google Cloud console search bar:\n2. Click **+ CREATE TOPIC** in the **Topics** tab:\n3. Enter a name in the **Topic ID** field.\n4. Select **Add a default subscription** , leave the other options blank:\n5. Click **Create**.\n\nCreate a Log Router sink\n------------------------\n\n1. Open **Log router** in the Google Cloud console:\n2. Click **Create sink** :\n3. Enter a name and description for your sink, then click **Next**.\n4. Choose **Cloud Pub/Sub topic** as the sink service.\n5. Choose the topic you created, then click **Next.**\n6. Enter the following code in **Build inclusion filter**:\n\n logName=\"projects/\u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status\"\n\n Replace \u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e with the ID for your Google Cloud console\n project.\n7. Click **Next** , then click **Create sink**. You don't need to filter out any\n logs.\n\n8. Verify the sink is now listed under **Log Router Sinks**.\n\nJoin the missing data\n---------------------\n\nUse a Cloud Run function to automatically execute the code to backfill traffic\nsource data when Pub/Sub detects the completeness signal:\n\n1. Open **Cloud Run functions** :\n2. Click **CREATE FUNCTION** :\n3. Choose **Cloud Run function** for the **Environment**.\n4. Enter a name for your function.\n5. Choose **Cloud Pub/Sub** as the **Trigger type** , and the topic you created as the **Cloud Pub/Sub topic**.\n6. Click **Next**, then enter your code to join the Google Ads attribution data with your BigQuery export in the box."]]