دليل تنفيذ القياس
1- قبل البدء
ضَع في اعتبارك العناصر الأكثر أهمية لنشاطك التجاري بالاستناد إلى الأنواع التالية من العملاء وحالات الاستخدام وتأكّد من أنّ عملية الدمج والتجربة تعكس هذه الأولويات. يمكن أن تشمل هذه المعايير ما يلي:
- نوع العميل: المعلِنون الكبار في مقابل صغار المعلِنين، والوكالات، ونوع القطاع، والبصمة الجغرافية
- أهداف الحملات وأنواع الإحالات الناجحة: اكتساب المستخدمين والاحتفاظ بالعملاء وعمليات الشراء والأرباح
- حالات الاستخدام: إعداد التقارير، وتحليل عائد الاستثمار، وتحسين عروض الأسعار
2. حالات الاستخدام
غالبًا ما نرى تقارير تلخيصية مستخدَمة في إعداد التقارير والتقارير على مستوى الحدث وتُستخدَم في عملية التحسين (وربما إعداد التقارير كبيانات إضافية). للاستفادة إلى أقصى حد من إمكانات القياس، يمكنك الجمع بين مستوى الحدث ومستوى التجميع، على سبيل المثال، استنادًا إلى منهجية "إعلانات Google" وأبحاث تحسين "مبادرة حماية الخصوصية".
3- بنود عامة
|
المرجع |
أفضل |
إعداد التقارير |
- استخدام التقارير الموجزة لإعداد تقارير عن حالات الاستخدام
|
- فهم كيفية استخدام الملخّص والتقارير على مستوى الحدث معًا
لإعداد التقارير
|
التحسين |
- شرح واضح لما يتم تحسينه بالضبط
- التعرّف بشكلٍ واضح على التقارير التي تعزّز نموذج التحسين
- استخدام التقارير على مستوى الحدث لحالات استخدام التحسين
- قد يتضمّن تحسين الإعلانات الشخصية إشارات إنشاء النماذج.
|
- التعرّف على كيفية استخدام الملخّص والتقارير على مستوى الحدث معًا، لا سيّما لتحسين عائد الإنفاق الإعلاني
|
تحديد المصدر على المواقع الإلكترونية والتطبيقات المختلفة |
- التعرّف على كيفية استخدام Chrome و"تحديد المصدر على جميع التطبيقات" و"تحديد المصدر على الويب" في Android (شرح على الويب وشرح Android)
|
- مقارنة الإحالة على مستوى التطبيقات والمواقع الإلكترونية من خلال ARA بالتغطية الحالية على مستوى التطبيقات والمواقع الإلكترونية
- إذا لم تكن تقيس حاليًا الإحالة على مستوى التطبيقات والمواقع الإلكترونية، ننصحك بما إذا كان ذلك مفيدًا.
|
4. إعداد الضبط
|
المرجع |
أفضل |
التقارير على مستوى الحدث |
- الإعداد الصحيح لطلبات التسجيل الخاصة بالمصدر / بدء التشغيل لأي مسار (إعلانات المنتجات غير المخصّصة، وغير المخصّصة، وغير ذلك)
- استخدام إما الإحالات الناجحة الناتجة عن النقر (CTC) أو الإحالات الناجحة بعد رؤية الإعلان فقط (VTC)
- استخدام إعداد الضبط التلقائي
- فهم كامل للأولوية، وانتهاء الصلاحية، وevent_report_window، deduplication_key، الفلاتر،_lookback_window
|
- الإعداد الصحيح لطلبات تسجيل المصدر / مشغِّل الإعلان، لجميع المسارات (إعلانات الإعلانات المخصّصة، وغير المخصّصة، وجميع أنواع الإعلانات وما إلى ذلك)
- استخدام كل من CTC والإحالة الناجحة بعد رؤية الإعلان فقط
- اختبار فترات إعداد التقارير المختلفة لتحسين الأداء في حال فقدان التقارير وتحديد الإعدادات المثلى لحالات الاستخدام
- الدمج مع Sim lib: أداة يمكن استخدامها لاختبار ARA استنادًا إلى البيانات السابقة
|
التقارير الموجزة |
- الإعداد الصحيح لطلبات التسجيل الخاصة بالمصدر / بدء التشغيل لأي مسار (إعلانات المنتجات غير المخصّصة، وغير المخصّصة، وغير ذلك)
- فهم كامل لإعدادات التقارير المجمَّعة: الفلاتر، وaggregatable_report_window، وschedule_report_time، وsource_registration_time، وreporting_origin
|
- الإعداد الصحيح لطلبات تسجيل المصدر / مشغِّل الإعلان، لجميع المسارات (إعلانات الإعلانات المخصّصة، وغير المخصّصة، وجميع أنواع الإعلانات وما إلى ذلك)
- استخدام كل من CTC والإحالة الناجحة بعد رؤية الإعلان فقط
- الدمج مع SimLib والتجريب باستخدام عمليات محاكاة Noise Lab يمكن استخدامها لاختبار إعدادات متنوعة لواجهة برمجة التطبيقات
|
5- استراتيجيات التنفيذ
|
المرجع |
أفضل |
بيانات غير تابعة لجهة خارجية |
|
- ضَع في اعتبارك كيفية استخدام ملفات تعريف الارتباط التابعة لجهات خارجية (إن كانت متاحة) والبيانات غير المتأثرة بمكوّنات 3PCD، وذلك للتحقّق من صحة أداء ARA أو تحسينه.
|
الضوضاء |
|
- تنفيذ آليات متنوعة واختبارها لبيانات إزالة الضوضاء
|
خدمة التجميع |
- تحقَّق من أنّ المفاتيح من جهة المصدر ومفتاح عامل التشغيل التي تخطّط لاستخدامها تبدو منطقية لحالات الاستخدام.
مثال على بنية المفاتيح التي يجب البدء بها يمكن أن تكون: بنية مفاتيح تتضمّن جميع السمات التي تريد تتبُّعها. استنادًا إلى النتائج، يمكنك اختبار بُنى رئيسية مختلفة.
|
- اختبار عدّة بُنى رئيسية مختلفة، بما في ذلك المفاتيح الهرمية لتحسين حالات الاستخدام
- اختبار قيم Epsilon المختلفة داخل خدمة التجميع والقدرة على تقديم منظور حولها
|
استراتيجية التجميع |
- فهم كامل لتأثير وتيرة التجميع المختلفة (على سبيل المثال، كل ساعة أو يوميًا أو أسبوعيًا) وكيفية تجميع التقارير (على سبيل المثال، حسب وقت إعداد التقرير المجدول للمعلِن X) يمكنك الاطّلاع على تفاصيل إضافية في مستندات المطوّرين وإرشادات اختبار تحميل خدمة Agg.
- يجب إجراء اختبارات باستخدام معدل تكرار تجميع واحد ومعلن واحد على الأقل.
|
- اختبار مجموعات مختلفة من تكرارات التجميع وأبعاد التقارير وتحديد الإعدادات المثلى لحالات الاستخدام
- تقليل فقدان التقارير عن طريق تعديل استراتيجية التجميع لمراعاة التقارير القابلة للتجميع المتأخرة والمحتملة
|
تصحيح الأخطاء |
|
- استخدام جميع أنواع تقارير تصحيح الأخطاء كجزء من الاختبار والتقييم
|
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2024-01-29 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2024-01-29 (حسب التوقيت العالمي المتفَّق عليه)"],[[["Prioritize business needs by considering customer types, campaign objectives, and use cases when integrating and experimenting with Attribution Reporting API."],["Combine event-level and summary reports for comprehensive measurement, leveraging them for optimization and reporting respectively."],["Optimize Attribution Reporting API setup by configuring source/trigger registration calls, utilizing both click-through and view-through conversions, and experimenting with reporting windows."],["Explore advanced techniques like noise reduction, aggregation service optimization, and batching strategies to enhance measurement accuracy and efficiency."],["Integrate with debugging tools to validate implementation, compare with existing measurement, and identify areas for improvement."]]],["This document outlines best practices for implementing the Privacy Sandbox Attribution Reporting API (ARA). Key actions include: prioritizing customer types and campaign objectives, combining event-level and summary reports for reporting and optimization, and understanding cross-app & web attribution. Optimal configurations involve using both Click Through Conversions (CTC) and View Through Conversions (VTC), leveraging flexible event-level setups, and integrating transitional debug reports. It emphasizes testing noise impact, different key structures, batching frequencies, and utilizing non-3PC data for validation.\n"]]