Hãy thử máy chủ MCP cho Google Analytics. Cài đặt từ
GitHub và xem
thông báo để biết thêm thông tin chi tiết.
Chèn lấp dữ liệu nguồn lưu lượng truy cập trên Google Ads càng sớm càng tốt (GA 360)
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Nếu sử dụng tính năng Xuất dữ liệu mới hằng ngày sang BigQuery, bạn có thể thấy Data Not Available
cho một số trường traffic_source
. Hướng dẫn này giúp bạn tự động điền lại hầu hết dữ liệu nguồn lưu lượng truy cập bị thiếu trong tệp xuất hiện tại ngay khi có dữ liệu, thường là muộn nhất vào lúc 5 giờ sáng mỗi ngày.
Sau đây là các bước để tự động hoá tính năng bổ sung dữ liệu:
- Theo dõi tín hiệu hoàn chỉnh hằng ngày từ BigQuery.
- Xác định những sự kiện thiếu dữ liệu nguồn lưu lượng truy cập trong tệp xuất sang BigQuery.
- Truy vấn dữ liệu đầy đủ cho những sự kiện đó từ Google Ads.
- Kết hợp dữ liệu sự kiện đầy đủ với dữ liệu xuất sang BigQuery.
Tạo chủ đề Pub/Sub
- Mở Pub/Sub trong trình đơn điều hướng bên trái của Google Cloud Console. Nếu bạn không thấy Pub/Sub, hãy tìm trong thanh tìm kiếm của Google Cloud Console:

- Nhấp vào + TẠO CHỦ ĐỀ trong thẻ Chủ đề:

- Nhập tên vào trường Mã chủ đề.
- Chọn Thêm gói thuê bao mặc định, để trống các tuỳ chọn khác:

- Nhấp vào Tạo.
Tạo bồn lưu trữ Trình định tuyến nhật ký
- Mở Trình định tuyến nhật ký trong Google Cloud Console:

- Nhấp vào Create sink (Tạo bồn lưu trữ):

- Nhập tên và nội dung mô tả cho bồn rửa, sau đó nhấp vào Tiếp theo.
- Chọn Chủ đề Cloud Pub/Sub làm dịch vụ lưu trữ.
- Chọn chủ đề bạn đã tạo, rồi nhấp vào Tiếp theo.
Nhập mã sau vào Build inclusion filter (Bộ lọc đưa vào bản dựng):
logName="projects/YOUR-PROJECT-ID/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status"
Thay thế YOUR-PROJECT-ID bằng mã nhận dạng cho dự án trên Google Cloud Console.
Nhấp vào Tiếp theo, rồi nhấp vào Tạo bồn lưu trữ. Bạn không cần lọc ra bất kỳ nhật ký nào.
Xác minh rằng bồn lưu trữ hiện được liệt kê trong phần Log Router Sinks (Bồn lưu trữ bộ định tuyến nhật ký).
Kết hợp dữ liệu bị thiếu
Sử dụng hàm Cloud Run để tự động thực thi mã nhằm bổ sung dữ liệu nguồn lưu lượng truy cập khi Pub/Sub phát hiện tín hiệu hoàn tất:
- Mở Hàm Cloud Run:

- Nhấp vào TẠO HÀM:

- Chọn Hàm Cloud Run cho Môi trường.
- Nhập tên cho hàm của bạn.
- Chọn Cloud Pub/Sub làm Loại điều kiện kích hoạt và chủ đề bạn đã tạo làm Chủ đề Cloud Pub/Sub.
- Nhấp vào Tiếp theo, sau đó nhập mã của bạn để kết hợp dữ liệu mô hình phân bổ của Google Ads với dữ liệu xuất từ BigQuery trong hộp.
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2024-12-19 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2024-12-19 UTC."],[],["The core process addresses missing traffic source data in BigQuery Fresh Daily exports. It involves listening for a daily completeness signal via Pub/Sub, identifying incomplete events, and then querying Google Ads for the complete data. This complete data is then joined with the existing BigQuery export. To achieve this, a Pub/Sub topic and a Log Router sink are created to monitor the completeness signal. Finally, a Cloud Run function is employed to execute the data backfill using a custom code when triggered by the completeness signal.\n"],null,["# Backfill Google Ads traffic source data as soon as possible (GA 360)\n\nIf you use BigQuery Fresh Daily exports, you might see `Data Not Available` for\nsome `traffic_source` fields. This guide helps you automatically backfill most\nof the missing traffic source data in existing exports as soon as it's\navailable, typically by 5 AM each day.\n\nHere are the steps to automate the backfill:\n\n1. Listen for the daily completeness signal from BigQuery.\n2. Identify the events with missing traffic source data in your BigQuery export.\n3. Query the complete data for those events from Google Ads.\n4. Join the complete event data with your BigQuery export.\n\nCreate a Pub/Sub topic\n----------------------\n\n1. Open **Pub/Sub** in the left navigation menu of the [Google Cloud console](https://console.cloud.google.com/). If you don't see **Pub/Sub** , search for it in the Google Cloud console search bar:\n2. Click **+ CREATE TOPIC** in the **Topics** tab:\n3. Enter a name in the **Topic ID** field.\n4. Select **Add a default subscription** , leave the other options blank:\n5. Click **Create**.\n\nCreate a Log Router sink\n------------------------\n\n1. Open **Log router** in the Google Cloud console:\n2. Click **Create sink** :\n3. Enter a name and description for your sink, then click **Next**.\n4. Choose **Cloud Pub/Sub topic** as the sink service.\n5. Choose the topic you created, then click **Next.**\n6. Enter the following code in **Build inclusion filter**:\n\n logName=\"projects/\u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e/logs/analyticsdata.googleapis.com%2Ffresh_bigquery_export_status\"\n\n Replace \u003cvar translate=\"no\"\u003eYOUR-PROJECT-ID\u003c/var\u003e with the ID for your Google Cloud console\n project.\n7. Click **Next** , then click **Create sink**. You don't need to filter out any\n logs.\n\n8. Verify the sink is now listed under **Log Router Sinks**.\n\nJoin the missing data\n---------------------\n\nUse a Cloud Run function to automatically execute the code to backfill traffic\nsource data when Pub/Sub detects the completeness signal:\n\n1. Open **Cloud Run functions** :\n2. Click **CREATE FUNCTION** :\n3. Choose **Cloud Run function** for the **Environment**.\n4. Enter a name for your function.\n5. Choose **Cloud Pub/Sub** as the **Trigger type** , and the topic you created as the **Cloud Pub/Sub topic**.\n6. Click **Next**, then enter your code to join the Google Ads attribution data with your BigQuery export in the box."]]