Guida all'implementazione della misurazione
1. Prima di iniziare
Considera gli aspetti più importanti per la tua attività in base ai tipi di clienti e ai casi d'uso che seguono e assicurati che l'integrazione e l'esperimento riflettano queste priorità. Tali criteri potrebbero includere:
- Tipo di cliente: inserzionisti di grandi dimensioni e piccoli inserzionisti, agenzie, tipo verticale, presenza geografica
- Scopi della campagna e tipi di conversione: acquisizione utenti, fidelizzazione clienti, acquisti, entrate
- Casi d'uso: report, analisi del ROI, ottimizzazione delle offerte
2. casi d'uso
Spesso vengono utilizzati i report di riepilogo per i report e i report a livello di evento per l'ottimizzazione (e potenzialmente per i report come dati ausiliari). Per massimizzare le funzionalità di misurazione, combina i risultati a livello di evento e aggregato, ad esempio in base alla metodologia di Google Ads e alla ricerca sull'ottimizzazione di Privacy Sandbox.
3. Generale
|
Base di riferimento |
Ottima |
Report |
- Usare i report di riepilogo per i casi d'uso dei report
|
- Scopri come utilizzare insieme i report di riepilogo e a livello di evento per i report
|
Ottimizzazione |
- Spiegazione chiara di cosa esattamente viene ottimizzato
- Comprendere in modo chiaro quali report generano il modello di ottimizzazione
- Utilizzare i report a livello di evento per casi d'uso relativi all'ottimizzazione.
- L'ottimizzazione dell'AP può comportare la definizione di indicatori
|
- Scopri come utilizzare insieme i report di riepilogo e a livello di evento, in particolare per l'ottimizzazione del ROAS
|
Attribuzione cross-app e web |
|
- Confronta l'attribuzione cross-app e web tramite ARA con l'attuale copertura su più app e web
- Se al momento non misuri l'attribuzione cross-app e web, valuta se può essere utile
|
4. Impostazione configurazione
|
Base di riferimento |
Ottima |
Report a livello di evento |
- Configurazione corretta delle chiamate di registrazione sorgente / attivatore, per qualsiasi flusso (PA, non PA e così via)
- Utilizzare le conversioni clickthrough (CTC) o le conversioni view-through (VTC)
- Utilizzo dell'impostazione della configurazione predefinita
- Comprensione completa di priorità, scadenza, event_report_window, deduplicate_key, filtri,_lookback_window
|
- Configurazione corretta delle chiamate di registrazione sorgente / attivatore, per tutti i flussi (AP, non AP, tutti i tipi di annuncio e così via)
- Test di diverse finestre di report per ottimizzare in base alla perdita di report e identificare le impostazioni ottimali per i tuoi casi d'uso
- Integrazione con Sim lib, uno strumento che può essere utilizzato per testare l'ARA sulla base di dati storici
|
Report di riepilogo |
- Configurazione corretta delle chiamate di registrazione sorgente / attivatore, per qualsiasi flusso (PA, non PA e così via)
- Comprensione completa delle configurazioni dei report aggregati: filtri, aggregable_report_window, schedule_report_time, source_enrollment_time, reporting_origin
|
- Configurazione corretta delle chiamate di registrazione sorgente / attivatore, per tutti i flussi (AP, non AP, tutti i tipi di annuncio e così via)
- Integrazione con SimLib e sperimentazione con simulazioni di Noise Lab. Può essere utilizzato per testare varie configurazioni API
|
5. Strategie di implementazione
|
Base di riferimento |
Ottima |
Dati non di terze parti |
|
- Valuta come utilizzare i cookie di terze parti (se disponibili) e i dati non interessati da 3PCD per convalidare o migliorare ulteriormente le prestazioni ARA
|
Rumore |
|
- Integrazione con SimLib e sperimentazione con simulazioni di Noise Lab per valutare l'impatto del rumore
- Implementa e testa vari meccanismi per la riduzione del rumore dei dati
|
Servizio di aggregazione |
- Verifica che le chiavi lato origine e lato trigger che intendi utilizzare siano adatte ai tuoi casi d'uso
Esempio di struttura chiave con cui iniziare potrebbe essere: una struttura chiave che include tutte le dimensioni che vuoi monitorare. In base all'output, puoi testare diverse strutture delle chiavi.
|
- Test di diverse strutture di chiavi, incluse chiavi gerarchiche per l'ottimizzazione in base ai casi d'uso
- Test di vari valori Epsilon all'interno di Aggregation Service e possibilità di fornire una prospettiva in merito
|
Strategia di raggruppamento |
- Eseguire test con almeno una frequenza di raggruppamento e un inserzionista
|
- Test di diverse combinazioni di frequenze di raggruppamento e dimensioni dei report e identificazione delle impostazioni ottimali per i relativi casi d'uso
- Riduci al minimo la perdita dei report modificando la strategia di raggruppamento per tenere conto di potenziali report aggregabili ritardati
|
Debug |
|
- Utilizza tutti i tipi di report di debug nell'ambito dei test e della valutazione
|
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2024-01-29 UTC.
[null,null,["Ultimo aggiornamento 2024-01-29 UTC."],[[["Prioritize business needs by considering customer types, campaign objectives, and use cases when integrating and experimenting with Attribution Reporting API."],["Combine event-level and summary reports for comprehensive measurement, leveraging them for optimization and reporting respectively."],["Optimize Attribution Reporting API setup by configuring source/trigger registration calls, utilizing both click-through and view-through conversions, and experimenting with reporting windows."],["Explore advanced techniques like noise reduction, aggregation service optimization, and batching strategies to enhance measurement accuracy and efficiency."],["Integrate with debugging tools to validate implementation, compare with existing measurement, and identify areas for improvement."]]],[]]