केस स्टडी
एमएल किट का इस्तेमाल करके, Zil अपने ऐप्लिकेशन को
50% कम करता है.

हर दिन, Yil उपयोगकर्ताओं को एक खास याद फिर से देखने और उसे अपनों के साथ शेयर करने का मौका देता है. ऐप्लिकेशन, इमेज के विश्लेषण का इस्तेमाल करके अपने उपयोगकर्ताओं की लाइब्रेरी में मौजूद काम की फ़ोटो, वीडियो, और GIF की पहचान करता है. साथ ही, एक बार में एक ही फ़ोटो को फिर से दिखाता है.

शुरुआत में, Zil ने उन इमेज की पहचान करने के लिए अपना मशीन लर्निंग मॉडल बनाया, जो उनके उपयोगकर्ताओं के लिए सबसे अहम यादों को यादगार बना सकती हैं. मॉडल सीधे उपयोगकर्ता के डिवाइस पर चलते हैं, इसलिए उनकी बैटरी की लाइफ़ और मीडिया में बड़े मीडिया जैसी सामान्य स्मार्टफ़ोन समस्याएं भी होती हैं.

इसलिए, टीम ने उपयोगकर्ता की मीडिया लाइब्रेरी से चेहरे और ऑब्जेक्ट को निकालने के लिए एक नया मॉडल बनाया. साथ ही, उन्हें ज़्यादा से ज़्यादा साइज़ और ऊर्जा की कम खपत करने वाले तरीकों से लेबल करने की कोशिश की. हालांकि, उन्होंने तुरंत ही 200 एमबी के मॉडल से काम करना मुश्किल बना दिया. इसकी वजह से, ऐप्लिकेशन डाउनलोड होने की रफ़्तार कम हो गई और सबसे पहले उपयोगकर्ता के अनुभव को खराब किया!

ज़िल के सीटीओ, ऑरिलियन सिब्रिल ने कहा, "Yil ने एमएल किट के चेहरे की पहचान करके और इमेज को लेबल करने वाले एपीआई लागू किए. इससे ऐप्लिकेशन को धीमा किए बिना काम करना आसान हो गया." “यह तेज़ी से काम करता है, मेमोरी में कम जगह लगती है और डिवाइस पर आउटपुट बहुत सटीक होता है.” साथ ही, एमएल किट की इस समस्या को आउटसोर्स करके, Zil की टीम अपने उद्योग और कारोबार के मॉडल के हिसाब से छोटी मशीन लर्निंग को ज़्यादा समय दे सकती है.

इंटिग्रेशन तेज़ और आसान था — बस कुछ ही हफ़्तों में यह प्रोडक्शन में बन गया था. "हमारे अपने मॉडल का इस्तेमाल करने के लिए, काफ़ी इंटिग्रेशन इंटिग्रेशन की ज़रूरत थी, ताकि यह पक्का किया जा सके कि मोबाइल टीम और डेटा साइंस टीम एक-दूसरे की ज़रूरतों को समझ सकें. इसके बजाय, एमएल किट का इस्तेमाल करने से हमें कई हफ़्तों का इंटिग्रेशन करने में मदद मिली.”

ML किट के एपीआई के लिए, बल्क में मौजूद ऑब्जेक्ट की पहचान करने वाले मॉडल का इस्तेमाल करने से, ऐप्लिकेशन की परफ़ॉर्मेंस पर तुरंत असर पड़ा. इससे, उपयोगकर्ताओं की संतुष्टि हुई. उसी समय, उनके ऐप्लिकेशन का साइज़ 50% तक कम हो गया.

ML किट के चेहरे की पहचान करने वाले एपीआई को उनके ओरिजनल मॉडल से 85 गुना ज़्यादा तेज़ी से चलाया जाता है. इससे टीम को प्रोसेस करने में ज़्यादा समय नहीं लगता. अब वे स्टैंडर्ड डीप लर्निंग फ़ंक्शन को बनाए रखने की चिंता किए बिना, अपने मुख्य प्रॉडक्ट पर फिर से फ़ोकस कर सकते हैं.