ML Kit, डिवाइस पर मौजूद मॉडल का इस्तेमाल करके, मैसेज के लिए छोटे जवाब जनरेट कर सकता है.
स्मार्ट जवाब जनरेट करने के लिए, आपको ML Kit को किसी बातचीत में हाल ही के मैसेज का लॉग देना होगा. अगर ML Kit यह पता लगाता है कि बातचीत अंग्रेज़ी में हो रही है और उसमें संवेदनशील विषय शामिल नहीं है, तो ML Kit तीन जवाब जनरेट करता है. इन जवाबों को उपयोगकर्ता को सुझाया जा सकता है.
बंडल किए गए | अलग-अलग बेचे जाने वाले | |
---|---|---|
लाइब्रेरी का नाम | com.google.mlkit:smart-reply | com.google.android.gms:play-services-mlkit-smart-reply |
लागू करना | मॉडल, बिल्ड के समय आपके ऐप्लिकेशन से स्टैटिक तौर पर लिंक होता है. | मॉडल, Google Play services की मदद से डाइनैमिक तौर पर डाउनलोड किया जाता है. |
ऐप्लिकेशन के साइज़ पर असर | साइज़ में करीब 5.7 एमबी की बढ़ोतरी. | साइज़ में करीब 200 केबी की बढ़ोतरी. |
शुरू होने में लगने वाला समय | मॉडल तुरंत उपलब्ध हो जाता है. | पहली बार इस्तेमाल करने से पहले, मॉडल डाउनलोड होने का इंतज़ार करना पड़ सकता है. |
इसे आज़माएं
- इस एपीआई के इस्तेमाल का उदाहरण देखने के लिए, सैंपल ऐप्लिकेशन आज़माएं.
शुरू करने से पहले
प्रोजेक्ट-लेवल की
build.gradle
फ़ाइल में,buildscript
औरallprojects
, दोनों सेक्शन में Google की Maven रिपॉज़िटरी को शामिल करना न भूलें.अपने मॉड्यूल की ऐप्लिकेशन-लेवल की Gradle फ़ाइल में, ML Kit की Android लाइब्रेरी की डिपेंडेंसी जोड़ें. आम तौर पर, यह फ़ाइल
app/build.gradle
होती है. अपनी ज़रूरतों के हिसाब से, इनमें से कोई एक डिपेंडेंसी चुनें:- अपने ऐप्लिकेशन के साथ मॉडल को बंडल करने के लिए:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:smart-reply:17.0.4' }
- Google Play services में मॉडल का इस्तेमाल करने के लिए:
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-smart-reply:16.0.0-beta1' }
अगर आपको Google Play services में मॉडल का इस्तेमाल करना है, तो अपने ऐप्लिकेशन को इस तरह कॉन्फ़िगर किया जा सकता है कि Play Store से ऐप्लिकेशन इंस्टॉल होने के बाद, मॉडल अपने-आप डिवाइस पर डाउनलोड हो जाए. अपने ऐप्लिकेशन की
AndroidManifest.xml
फ़ाइल में यह एलान जोड़कर:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="smart_reply" > <!-- To use multiple models: android:value="smart_reply,model2,model3" --> </application>
Google Play services के ModuleInstallClient API की मदद से, मॉडल की उपलब्धता की साफ़ तौर पर जांच की जा सकती है. साथ ही, डाउनलोड करने का अनुरोध भी किया जा सकता है.
अगर आपने इंस्टॉल के समय मॉडल डाउनलोड करने की सुविधा चालू नहीं की है या साफ़ तौर पर डाउनलोड करने का अनुरोध नहीं किया है, तो स्मार्ट जवाब जनरेटर को पहली बार चलाने पर मॉडल डाउनलोड हो जाता है. डाउनलोड पूरा होने से पहले किए गए अनुरोधों से कोई नतीजा नहीं मिलता.
1. बातचीत का इतिहास ऑब्जेक्ट बनाना
स्मार्ट जवाब जनरेट करने के लिए, ML Kit को
TextMessage
ऑब्जेक्ट का क्रम से लगाया गयाList
सूची भेजी जाती है. इसमें सबसे पहले का टाइमस्टैंप सबसे पहले होता है.जब भी उपयोगकर्ता कोई मैसेज भेजता है, तो बातचीत के इतिहास में मैसेज और उसका टाइमस्टैंप जोड़ें:
Kotlin
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()))
Java
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()));
जब भी उपयोगकर्ता को कोई मैसेज मिलता है, तो बातचीत के इतिहास में मैसेज, उसका टाइमस्टैंप, और मैसेज भेजने वाले का उपयोगकर्ता आईडी जोड़ें. उपयोगकर्ता आईडी, बातचीत में ईमेल भेजने वाले व्यक्ति की यूनीक पहचान करने वाली कोई भी स्ट्रिंग हो सकती है. यूज़र आईडी को किसी उपयोगकर्ता के डेटा से मैच करने की ज़रूरत नहीं है. साथ ही, स्मार्ट जवाब जनरेटर की बातचीत या अनुरोधों के बीच यूज़र आईडी को एक जैसा रखने की ज़रूरत नहीं है.
Kotlin
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId))
Java
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId));
बातचीत के इतिहास का ऑब्जेक्ट, इस उदाहरण की तरह दिखता है:
टाइमस्टैंप userID isLocalUser मैसेज गुरुवार, 21 फ़रवरी, 2019 को दोपहर 13:13:39 पीएसटी सही क्या आप रास्ते में हैं? गुरुवार, 21 फ़रवरी, 2019 को दोपहर 13:15:03 पीएसटी FRIEND0 गलत मुझे देर हो रही है, माफ़ करें! ML Kit, बातचीत के इतिहास में मौजूद आखिरी मैसेज के जवाबों के सुझाव देता है. आखिरी मैसेज, किसी ऐसे उपयोगकर्ता का होना चाहिए जो स्थानीय उपयोगकर्ता न हो. ऊपर दिए गए उदाहरण में, बातचीत का आखिरी मैसेज, स्थानीय उपयोगकर्ता के बजाय FRIEND0 से आया है. ML Kit को यह लॉग पास करने पर, यह FRIENDO के मैसेज के लिए, ये जवाब सुझाता है: "माफ़ करें, हम थोड़ी देर से पहुंचेंगे!"
2. मैसेज के जवाब पाना
किसी मैसेज के लिए स्मार्ट जवाब जनरेट करने के लिए,
SmartReplyGenerator
का एक इंस्टेंस पाएं और बातचीत के इतिहास को उसकेsuggestReplies()
तरीके में पास करें:Kotlin
val smartReplyGenerator = SmartReply.getClient() smartReply.suggestReplies(conversation) .addOnSuccessListener { result -> if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } .addOnFailureListener { // Task failed with an exception // ... }
Java
SmartReplyGenerator smartReply = SmartReply.getClient(); smartReply.suggestReplies(conversation) .addOnSuccessListener(new OnSuccessListener
() { @Override public void onSuccess(SmartReplySuggestionResult result) { if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } }); अगर ऑपरेशन पूरा हो जाता है, तो
SmartReplySuggestionResult
ऑब्जेक्ट को 'सफलता हैंडलर' को पास किया जाता है. इस ऑब्जेक्ट में, सुझाए गए तीन जवाबों की सूची होती है. इन जवाबों को उपयोगकर्ता को दिखाया जा सकता है:Kotlin
for (suggestion in result.suggestions) { val replyText = suggestion.text }
Java
for (SmartReplySuggestion suggestion : result.getSuggestions()) { String replyText = suggestion.getText(); }
ध्यान दें कि अगर मॉडल को सुझाए गए जवाबों के काम के होने का भरोसा नहीं है, तो हो सकता है कि ML Kit कोई नतीजा न दिखाए. ऐसा तब भी हो सकता है, जब इनपुट बातचीत अंग्रेज़ी में न हो या मॉडल को संवेदनशील विषय का पता चलता हो.