BatchJobService
का इस्तेमाल करते समय इन दिशा-निर्देशों को ध्यान में रखें.
प्रवाह क्षमता में सुधार
कई छोटी नौकरियों की तुलना में, बड़ी नौकरियां ज़्यादा पसंद की जाती हैं.
कार्रवाई के टाइप के हिसाब से अपलोड की गई कार्रवाइयों को क्रम से लगाएं. उदाहरण के लिए, अगर आपकी नौकरी में कैंपेन, विज्ञापन समूह, और विज्ञापन समूह से जुड़ी शर्तें जोड़ने के लिए कार्रवाइयां शामिल हैं, तो अपने अपलोड में कार्रवाइयों को क्रम में लगाएं, ताकि सभी कैंपेन ऑपरेशन पहले हों, इसके बाद विज्ञापन ग्रुप की सभी कार्रवाइयां और आखिर में विज्ञापन समूह की सभी शर्तों से जुड़ी कार्रवाइयां हों.
एक ही तरह के ऑपरेशन में, पैरंट रिसॉर्स के हिसाब से इनका ग्रुप बनाने से परफ़ॉर्मेंस बेहतर हो सकती है. उदाहरण के लिए, अगर आपके पास
AdGroupCriterionOperation
ऑब्जेक्ट की एक सीरीज़ है, तो अलग-अलग विज्ञापन ग्रुप में विज्ञापन ग्रुप की शर्तों पर असर डालने वाली कार्रवाइयों को आपस में जोड़ने के बजाय, विज्ञापन ग्रुप के हिसाब से ऑपरेशन को ग्रुप करना बेहतर हो सकता है.
एक के बाद एक दिखने वाली समस्याओं से बचना
एक ही खाते के लिए एक साथ कई जॉब सबमिट करते समय, कोशिश करें कि एक ही ऑब्जेक्ट पर एक ही समय में जॉब के काम करने की संभावना कम हो जाए. साथ ही, बड़ी संख्या में जॉब उपलब्ध रखें. कई अधूरे काम (
RUNNING
की स्थिति वाले) जिनमें ऑब्जेक्ट के एक जैसे सेट में बदलाव करने की कोशिश की जाती है वे बंद होने जैसी स्थितियों की वजह बन सकते हैं.एक ही जॉब में, एक ही ऑब्जेक्ट में बदलाव करने वाली कई कार्रवाइयां सबमिट न करें, क्योंकि ऐसा करने पर नतीजा अनुमान से अलग हो सकता है.
बेहतर तरीके से नतीजे फिर से पाएं
जॉब की स्थिति के बारे में बार-बार पोल न करें. ऐसा करने से, हो सकता है कि आप तय की गई दर से जुड़ी गड़बड़ियां देख पाएं.
हर पेज पर 1,000 से ज़्यादा नतीजे न पाएं. लोड या अन्य कारकों के कारण सर्वर से कम वापसी कर सकता है.
नतीजों का क्रम और अपलोड करने का क्रम एक ही होगा.
इस्तेमाल करने के बारे में अतिरिक्त दिशा-निर्देश
आपके पास इस बात की ऊपरी सीमा सेट करने का विकल्प है कि रद्द किए जाने से पहले, बैच जॉब को कितने समय तक चलने की अनुमति है. नया बैच जॉब बनाते समय,
metadata.execution_limit_seconds
फ़ील्ड को सेकंड में, अपनी पसंद की समयसीमा पर सेट करें. अगरmetadata.execution_limit_seconds
सेट नहीं है, तो डिफ़ॉल्ट तौर पर कोई समयसीमा सेट नहीं की जाती है.हमारा सुझाव है कि हर
AddBatchJobOperationsRequest
में 1,000 से ज़्यादा कार्रवाइयां न जोड़ें. साथ ही, एक ही जॉब में बाकी के सभी ऑपरेशन अपलोड करने के लिए,sequence_token
का इस्तेमाल करें. ऑपरेशन के कॉन्टेंट के आधार पर, एक हीAddBatchJobOperationsRequest
में बहुत ज़्यादा कार्रवाइयां करने सेREQUEST_TOO_LARGE
गड़बड़ी हो सकती है. कार्रवाइयों की संख्या को कम करके औरAddBatchJobOperationsRequest
को फिर से आज़माकर, इस गड़बड़ी को ठीक किया जा सकता है.
सीमाएं
हर
BatchJob
पर, ज़्यादा से ज़्यादा 10 लाख ऑपरेशन काम करते हैं.किसी एक खाते में एक साथ 100 सक्रिय या लंबित काम हो सकते हैं.
सात दिन से ज़्यादा पुरानी नौकरियां अपने-आप हट जाती हैं.
हर
AddBatchJobOperationsRequest
का साइज़ ज़्यादा से ज़्यादा 10,484,504 बाइट होता है. अगर आपने यह सीमा पार कर ली, तो आपकोINTERNAL_ERROR
मिलेगा. आप अनुरोध सबमिट करने से पहले उसका आकार निर्धारित कर सकते हैं और उसका आकार बहुत बड़ा होने पर उचित कार्रवाई कर सकते हैं.Java
static final int MAX_REQUEST_BYTES = 10_484_504; ... (code to get the request object) int sizeInBytes = request.getSerializedSize();
Python
from google.ads.googleads.client import GoogleAdsClient MAX_REQUEST_BYTES = 10484504 ... (code to get the request object) size_in_bytes = request._pb.ByteSize()
Ruby
require 'google/ads/google_ads' MAX_REQUEST_BYTES = 10484504 ... (code to get the request object) size_in_bytes = request.to_proto.bytesize
PHP
use Google\Ads\GoogleAds\V16\Resources\Campaign; const MAX_REQUEST_BYTES = 10484504; ... (code to get the request object) $size_in_bytes = $campaign->byteSize() . PHP_EOL;
.NET
using Google.Protobuf; const int MAX_REQUEST_BYTES = 10484504; ... (code to get the request object) int sizeInBytes = request.ToByteArray().Length;
Perl
use Devel::Size qw(total_size); use constant MAX_REQUEST_BYTES => 10484504; ... (code to get the request object) my $size_in_bytes = total_size($request);