Panduan penerapan pengukuran
1. Sebelum memulai
Pertimbangkan hal yang paling penting bagi bisnis Anda berdasarkan jenis pelanggan dan kasus penggunaan berikut, serta pastikan integrasi dan eksperimen Anda mencerminkan prioritas tersebut. Kriteria tersebut dapat mencakup:
- Jenis pelanggan: pengiklan besar versus kecil, agensi, jenis vertikal, jejak geografis
- Tujuan kampanye dan jenis konversi: akuisisi pengguna, retensi pelanggan, pembelian, pendapatan
- Kasus penggunaan: pelaporan, analisis ROI, pengoptimalan bid
2. Kasus penggunaan
Kami sering melihat laporan ringkasan yang digunakan untuk pelaporan dan laporan tingkat peristiwa yang digunakan untuk pengoptimalan (dan mungkin pelaporan sebagai data tambahan). Untuk memaksimalkan kemampuan pengukuran, gabungkan tingkat peristiwa dan tingkat agregat; misalnya, berdasarkan metodologi Google Ads dan riset pengoptimalan Privacy Sandbox.
3. Umum
|
Dasar pengukuran |
Optimal |
Pelaporan |
- Menggunakan laporan ringkasan untuk melaporkan kasus penggunaan
|
- Memahami cara menggunakan laporan tingkat peristiwa + ringkasan secara bersamaan untuk
pelaporan
|
Pengoptimalan |
- Penjelasan yang jelas tentang apa sebenarnya yang dioptimalkan
- Pemahaman yang jelas tentang laporan mana yang mendorong model pengoptimalan Anda
- Menggunakan laporan tingkat peristiwa untuk kasus penggunaan pengoptimalan
- Pengoptimalan PA mungkin melibatkan pemodelanSignals
|
- Memahami cara menggunakan laporan tingkat ringkasan + peristiwa secara bersamaan, terutama untuk pengoptimalan ROAS
|
Atribusi lintas aplikasi & web |
|
- Membandingkan Atribusi Lintas Aplikasi dan Web melalui ARA dengan cakupan Lintas Aplikasi dan Web saat ini
- Jika saat ini tidak mengukur Atribusi Lintas Aplikasi dan Web, pertimbangkan apakah hal ini dapat bermanfaat
|
4. Penyiapan konfigurasi
|
Dasar pengukuran |
Optimal |
Laporan Tingkat Peristiwa |
- Penyiapan panggilan pendaftaran sumber / pemicu yang tepat, untuk alur apa pun (PA, non-PA, dll)
- Menggunakan Konversi Klik-Tayang (CTC) atau Konversi Lihat-Tayang (VTC)
- Menggunakan penyiapan konfigurasi default
- Pemahaman penuh tentang prioritas, masa berakhir, event_report_window, deduplikasi_key, filters,_lookback_window
|
- Penyiapan panggilan pendaftaran sumber / pemicu yang tepat, untuk semua alur (PA, non-PA, semua jenis iklan, dll.)
- Menguji berbagai periode pelaporan untuk mengoptimalkan hilangnya laporan dan mengidentifikasi setelan optimal untuk kasus penggunaan Anda
- Integrasi dengan Sim lib, alat yang dapat digunakan untuk menguji ARA berdasarkan data historis
|
Laporan Ringkasan |
- Penyiapan panggilan pendaftaran sumber / pemicu yang tepat, untuk alur apa pun (PA, non-PA, dll)
- Pemahaman penuh tentang konfigurasi laporan gabungan: filter, aggregatable_report_window, schedule_report_time, source_registration_time, reporting_origin
|
- Penyiapan panggilan pendaftaran sumber / pemicu yang tepat, untuk semua alur (PA, non-PA, semua jenis iklan, dll.)
- Integrasi dengan SimLib dan eksperimen dengan simulasi Noise Lab. Dapat digunakan untuk menguji berbagai konfigurasi API
|
5. Strategi penerapan
|
Dasar pengukuran |
Optimal |
Data non-3PC |
|
- Pertimbangkan cara menggunakan cookie pihak ketiga (selama tersedia) dan data yang tidak terpengaruh oleh 3PCD untuk memvalidasi atau meningkatkan performa ARA lebih lanjut
|
Derau |
|
- Integrasi dengan SimLib dan eksperimen dengan simulasi Noise Lab untuk menilai dampak derau
- Terapkan dan uji berbagai mekanisme untuk mengurangi derau data
|
Layanan Agregasi |
- Pastikan kunci sisi sumber dan sisi pemicu yang akan Anda gunakan sesuai dengan kasus penggunaan Anda
Contoh struktur kunci untuk memulai dapat berupa: struktur kunci yang mencakup semua dimensi yang ingin Anda lacak. Berdasarkan outputnya, Anda dapat menguji berbagai struktur kunci.
|
- Menguji beberapa struktur kunci yang berbeda, termasuk kunci hierarkis untuk mengoptimalkan kasus penggunaan Anda
- Menguji berbagai nilai Epsilon dalam Layanan Agregasi dan dapat memberikan perspektifnya
|
Strategi pengelompokan |
- Uji dengan minimal satu frekuensi pengelompokan dan satu pengiklan
|
- Menguji berbagai kombinasi frekuensi pengelompokan dan dimensi laporan, serta mengidentifikasi setelan optimal untuk kasus penggunaannya
- Meminimalkan hilangnya laporan dengan menyesuaikan strategi pengelompokan untuk memperhitungkan potensi laporan agregat yang tertunda
|
Proses Debug |
|
- Menggunakan semua jenis laporan debug sebagai bagian dari pengujian dan evaluasi Anda
|
Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.
Terakhir diperbarui pada 2024-01-29 UTC.
[null,null,["Terakhir diperbarui pada 2024-01-29 UTC."],[[["Prioritize business needs by considering customer types, campaign objectives, and use cases when integrating and experimenting with Attribution Reporting API."],["Combine event-level and summary reports for comprehensive measurement, leveraging them for optimization and reporting respectively."],["Optimize Attribution Reporting API setup by configuring source/trigger registration calls, utilizing both click-through and view-through conversions, and experimenting with reporting windows."],["Explore advanced techniques like noise reduction, aggregation service optimization, and batching strategies to enhance measurement accuracy and efficiency."],["Integrate with debugging tools to validate implementation, compare with existing measurement, and identify areas for improvement."]]],["This document outlines best practices for implementing the Privacy Sandbox Attribution Reporting API (ARA). Key actions include: prioritizing customer types and campaign objectives, combining event-level and summary reports for reporting and optimization, and understanding cross-app & web attribution. Optimal configurations involve using both Click Through Conversions (CTC) and View Through Conversions (VTC), leveraging flexible event-level setups, and integrating transitional debug reports. It emphasizes testing noise impact, different key structures, batching frequencies, and utilizing non-3PC data for validation.\n"]]