मशीन लर्निंग किट, डिवाइस पर मौजूद मॉडल का इस्तेमाल करके मैसेज के छोटे जवाब जनरेट कर सकती है.
स्मार्ट जवाब जनरेट करने के लिए, आपको किसी बातचीत में हाल ही के मैसेज का लॉग, एमएल किट की मदद से पास करना होता है. अगर ML किट तय करती है कि बातचीत अंग्रेज़ी में है और उसमें बातचीत का कोई संवेदनशील विषय नहीं है, तो ML Kit तीन जवाब जनरेट करता है. आपके पास उपयोगकर्ता को यह सुझाव देने का विकल्प होता है.
बंडल किए गए | बंडल न किए गए | |
---|---|---|
लाइब्रेरी का नाम | com.google.mlkit:smart-reply | com.google.android.gms:play-services-mlkit-smart-reply |
लागू करना | बिल्ड के समय, मॉडल को आपके ऐप्लिकेशन से स्टैटिक रूप से लिंक किया जाता है. | मॉडल को Google Play services की मदद से डाइनैमिक तौर पर डाउनलोड किया जाता है. |
ऐप्लिकेशन के साइज़ का असर | करीब 5.7 एमबी का साइज़ बढ़ाया गया. | करीब 200 केबी का साइज़ बढ़ाया जाता है. |
शुरू करने का समय | मॉडल तुरंत उपलब्ध है. | पहली बार इस्तेमाल करने से पहले मॉडल के डाउनलोड होने का इंतज़ार करना पड़ सकता है. |
इसे आज़माएं
- इस एपीआई के इस्तेमाल का उदाहरण देखने के लिए, ऐप्लिकेशन के सैंपल को आज़माएं.
शुरू करने से पहले
प्रोजेक्ट-लेवल की
build.gradle
फ़ाइल में, अपनेbuildscript
औरallprojects
, दोनों सेक्शन में Google की Maven रिपॉज़िटरी को शामिल करना न भूलें.अपने मॉड्यूल की ऐप्लिकेशन-लेवल की ग्रेडल फ़ाइल में, ML Kit Android लाइब्रेरी के लिए डिपेंडेंसी जोड़ें. आम तौर पर, यह
app/build.gradle
होती है. अपनी ज़रूरत के हिसाब से, इनमें से कोई एक डिपेंडेंसी चुनें:- इस मॉडल को अपने ऐप्लिकेशन के साथ बंडल करने के लिए:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:smart-reply:17.0.3' }
- Google Play Services में मॉडल का इस्तेमाल करने के लिए:
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-smart-reply:16.0.0-beta1' }
अगर इस मॉडल को Google Play Services में इस्तेमाल किया जाता है, तो Play Store से ऐप्लिकेशन इंस्टॉल होने के बाद इस मॉडल को डिवाइस पर अपने-आप डाउनलोड होने के लिए कॉन्फ़िगर किया जा सकता है. अपने ऐप्लिकेशन की
AndroidManifest.xml
फ़ाइल में, यह एलान जोड़कर:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="smart_reply" > <!-- To use multiple models: android:value="smart_reply,model2,model3" --> </application>
इसके अलावा, मॉडल की उपलब्धता की जानकारी भी देखी जा सकती है. साथ ही, Google Play services के ModuleInstallClient API की मदद से, मॉडल को डाउनलोड करने का अनुरोध किया जा सकता है.
अगर इंस्टॉल के समय मॉडल डाउनलोड करने की सुविधा चालू नहीं की जाती है या अश्लील कॉन्टेंट डाउनलोड करने का अनुरोध नहीं किया जाता है, तो मॉडल को पहली बार स्मार्ट जवाब जनरेट करने पर डाउनलोड किया जाएगा. डाउनलोड पूरा होने से पहले किए गए अनुरोधों का कोई नतीजा नहीं मिलता.
1. बातचीत के इतिहास के लिए ऑब्जेक्ट बनाना
स्मार्ट जवाब जनरेट करने के लिए, आपको ML किट को
TextMessage
ऑब्जेक्ट में सेList
ऑब्जेक्ट के क्रम में पास किया जाता है. इसमें सबसे पहले का टाइमस्टैंप शामिल होता है.जब भी उपयोगकर्ता मैसेज भेजता है, तो बातचीत के इतिहास में मैसेज और उसका टाइमस्टैंप जोड़ें:
Kotlin
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()))
Java
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()));
जब भी उपयोगकर्ता को कोई मैसेज मिले, तो बातचीत के इतिहास में मैसेज, उसका टाइमस्टैंप, और भेजने वाले का यूज़र आईडी जोड़ें. यूज़र आईडी कोई भी ऐसी स्ट्रिंग हो सकती है जिससे बातचीत में शामिल, भेजने वाले की खास पहचान होती है. यूज़र आईडी को किसी भी उपयोगकर्ता के डेटा से मेल खाना ज़रूरी नहीं है. साथ ही, यह ज़रूरी नहीं है कि यूज़र आईडी, बातचीत या स्मार्ट जवाब देने वाले टूल की बातचीत के बीच एक जैसा हो.
Kotlin
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId))
Java
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId));
बातचीत के इतिहास का ऑब्जेक्ट, नीचे दिए गए उदाहरण जैसा दिखता है:
टाइमस्टैंप userID isLocalUser मैसेज गुरु, 21 फ़रवरी, 2013:13:39 पीएसटी, 2019 true क्या तुम रास्ते में हो? गुरु, 21 फ़रवरी, 2019 13:15:03 पीएसटी, 2019 FRIEND0 false मुझे देर हो रही है, माफ़ करें! मशीन लर्निंग किट, बातचीत के इतिहास में आखिरी मैसेज के जवाबों के सुझाव देती है. आखिरी मैसेज किसी ऐसे उपयोगकर्ता का होना चाहिए जो स्थानीय नहीं है. ऊपर दिए गए उदाहरण में, बातचीत में आखिरी मैसेज गैर-स्थानीय उपयोगकर्ता FRIEND0 से आया है. इस लॉग के लिए ML किट पास करने पर, यह FRIENDO के इस मैसेज के जवाब के सुझाव देता है: "देर से चल रहे हैं, माफ़ करें!"
2. मैसेज के जवाब पाएं
किसी मैसेज का स्मार्ट जवाब जनरेट करने के लिए,
SmartReplyGenerator
का इंस्टेंस पाएं और बातचीत के इतिहास को इसकेsuggestReplies()
तरीके से पास करें:Kotlin
val smartReplyGenerator = SmartReply.getClient() smartReply.suggestReplies(conversation) .addOnSuccessListener { result -> if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } .addOnFailureListener { // Task failed with an exception // ... }
Java
SmartReplyGenerator smartReply = SmartReply.getClient(); smartReply.suggestReplies(conversation) .addOnSuccessListener(new OnSuccessListener
() { @Override public void onSuccess(SmartReplySuggestionResult result) { if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } }); अगर कार्रवाई पूरी हो जाती है, तो
SmartReplySuggestionResult
ऑब्जेक्ट को सक्सेस हैंडलर को पास कर दिया जाता है. इस ऑब्जेक्ट में सुझाए गए ज़्यादा से ज़्यादा तीन जवाबों की सूची होती है, जिसे अपने उपयोगकर्ता को दिखाया जा सकता है:Kotlin
for (suggestion in result.suggestions) { val replyText = suggestion.text }
Java
for (SmartReplySuggestion suggestion : result.getSuggestions()) { String replyText = suggestion.getText(); }
ध्यान दें कि अगर मॉडल को लगता है कि जवाब सही नहीं है, इनपुट के हिसाब से जवाब सही नहीं है या इनपुट वाली बातचीत अंग्रेज़ी में नहीं है या मॉडल को संवेदनशील विषय-वस्तु की पहचान करनी है, तो हो सकता है कि ML किट न दिखे.