অ্যান্ড্রয়েডে অটোএমএল-প্রশিক্ষিত মডেল দিয়ে ছবি লেবেল করুন

AutoML Vision Edge ব্যবহার করে আপনার নিজস্ব মডেলকে প্রশিক্ষণ দেওয়ার পর, আপনি আপনার অ্যাপে ছবি লেবেল করার জন্য এটি ব্যবহার করতে পারেন। AutoML Vision Edge থেকে প্রশিক্ষিত মডেলগুলিকে একীভূত করার দুটি উপায় রয়েছে: আপনি মডেলটিকে আপনার অ্যাপের অ্যাসেট ফোল্ডারে রেখে বান্ডল করতে পারেন, অথবা আপনি Firebase থেকে এটি ডায়নামিকভাবে ডাউনলোড করতে পারেন।
মডেল বান্ডলিং বিকল্পগুলি
আপনার অ্যাপে অন্তর্ভুক্ত
  • মডেলটি আপনার অ্যাপের APK-এর একটি অংশ।
  • অ্যান্ড্রয়েড ডিভাইসটি অফলাইনে থাকলেও মডেলটি তাৎক্ষণিকভাবে পাওয়া যায়।
  • ফায়ারবেস প্রজেক্টের প্রয়োজন নেই
ফায়ারবেস দিয়ে হোস্ট করা হয়েছে
  • ফায়ারবেস মেশিন লার্নিং- এ মডেলটি আপলোড করে হোস্ট করুন।
  • APK ফাইলের আকার কমায়
  • মডেলটি চাহিদা অনুযায়ী ডাউনলোড করা হয়।
  • আপনার অ্যাপ পুনরায় প্রকাশ না করেই মডেল আপডেটগুলি পাঠান।
  • Firebase Remote Config-এর মাধ্যমে সহজে A/B টেস্টিং
  • একটি ফায়ারবেস প্রজেক্ট প্রয়োজন।

চেষ্টা করে দেখুন

  • এই API-টির একটি উদাহরণমূলক ব্যবহার দেখতে নমুনা অ্যাপটি ব্যবহার করে দেখুন।

শুরু করার আগে

আপনার প্রজেক্ট-স্তরের build.gradle ফাইলে, buildscript এবং allprojects উভয় সেকশনেই গুগলের মেভেন রিপোজিটরি অন্তর্ভুক্ত করা নিশ্চিত করুন।

২. আপনার মডিউলের অ্যাপ-লেভেল গ্রেডল ফাইলে (যা সাধারণত app/build.gradle হয়) এমএল কিট অ্যান্ড্রয়েড লাইব্রেরির ডিপেন্ডেন্সিগুলো যোগ করুন: আপনার অ্যাপের সাথে একটি মডেল বান্ডল করার জন্য:
    dependencies {
      // ...
      // Image labeling feature with bundled automl model
      implementation 'com.google.mlkit:image-labeling-automl:16.2.1'
    }
    
ফায়ারবেস থেকে ডায়নামিকভাবে একটি মডেল ডাউনলোড করার জন্য, linkFirebase ডিপেন্ডেন্সিটি যোগ করুন:
    dependencies {
      // ...
      // Image labeling feature with automl model downloaded
      // from firebase
      implementation 'com.google.mlkit:image-labeling-automl:16.2.1'
      implementation 'com.google.mlkit:linkfirebase:16.0.1'
    }
    
৩. আপনি যদি কোনো মডেল ডাউনলোড করতে চান , তাহলে আপনার অ্যান্ড্রয়েড প্রজেক্টে Firebase যোগ করে নিন , যদি আগে থেকে তা করা না থাকে। মডেলটি বান্ডল করার সময় এটি করার প্রয়োজন নেই।

১. মডেলটি লোড করুন

একটি স্থানীয় মডেল উৎস কনফিগার করুন

আপনার অ্যাপের সাথে মডেলটি বান্ডল করতে:

১. ফায়ারবেস কনসোল থেকে ডাউনলোড করা জিপ আর্কাইভটি থেকে মডেল এবং এর মেটাডেটা এক্সট্র্যাক্ট করুন। আমরা আপনাকে পরামর্শ দিচ্ছি যে, ফাইলগুলো কোনো পরিবর্তন (ফাইলের নাম সহ) না করে, যেভাবে ডাউনলোড করেছেন সেভাবেই ব্যবহার করুন।

২. আপনার অ্যাপ প্যাকেজে আপনার মডেল এবং এর মেটাডেটা ফাইলগুলো অন্তর্ভুক্ত করুন:

ক. আপনার প্রোজেক্টে যদি অ্যাসেটস ফোল্ডার না থাকে, তাহলে app/ ফোল্ডারটিতে রাইট-ক্লিক করে New > Folder > Assets Folder-এ ক্লিক করে একটি ফোল্ডার তৈরি করুন।

খ. মডেল ফাইলগুলো রাখার জন্য অ্যাসেটস ফোল্ডারের অধীনে একটি সাব-ফোল্ডার তৈরি করুন।

গ. model.tflite , dict.txt এবং manifest.json ফাইলগুলো সাব-ফোল্ডারে কপি করুন (তিনটি ফাইলই অবশ্যই একই ফোল্ডারে থাকতে হবে)।

৩. আপনার অ্যাপের build.gradle ফাইলে নিম্নলিখিতটি যোগ করুন, যাতে অ্যাপটি বিল্ড করার সময় Gradle মডেল ফাইলটিকে কম্প্রেস না করে:
    android {
        // ...
        aaptOptions {
            noCompress "tflite"
        }
    }
    
মডেল ফাইলটি অ্যাপ প্যাকেজে অন্তর্ভুক্ত করা হবে এবং এমএল কিট-এর জন্য একটি র অ্যাসেট হিসেবে উপলব্ধ থাকবে।

দ্রষ্টব্য: অ্যান্ড্রয়েড গ্র্যাডল প্লাগইনের ৪.১ সংস্করণ থেকে, .tflite ডিফল্টরূপে noCompress তালিকায় যুক্ত হয়ে যাবে এবং উপরেরটির আর প্রয়োজন হবে না।

৪. মডেল ম্যানিফেস্ট ফাইলের পাথ উল্লেখ করে LocalModel অবজেক্ট তৈরি করুন:

কোটলিন

val localModel = AutoMLImageLabelerLocalModel.Builder()
        .setAssetFilePath("manifest.json")
        // or .setAbsoluteFilePath(absolute file path to manifest file)
        .build()

জাভা

AutoMLImageLabelerLocalModel localModel =
    new AutoMLImageLabelerLocalModel.Builder()
        .setAssetFilePath("manifest.json")
        // or .setAbsoluteFilePath(absolute file path to manifest file)
        .build();

ফায়ারবেস-হোস্টেড মডেল সোর্স কনফিগার করুন

রিমোটলি-হোস্টেড মডেলটি ব্যবহার করতে, একটি RemoteModel অবজেক্ট তৈরি করুন এবং মডেলটি পাবলিশ করার সময় আপনি যে নামটি দিয়েছিলেন, সেটি উল্লেখ করুন:

কোটলিন

// Specify the name you assigned in the Firebase console.
val remoteModel =
    AutoMLImageLabelerRemoteModel.Builder("your_model_name").build()

জাভা

// Specify the name you assigned in the Firebase console.
AutoMLImageLabelerRemoteModel remoteModel =
    new AutoMLImageLabelerRemoteModel.Builder("your_model_name").build();

এরপর, মডেল ডাউনলোড টাস্কটি শুরু করুন এবং কোন শর্তে আপনি ডাউনলোডের অনুমতি দিতে চান তা উল্লেখ করুন। যদি মডেলটি ডিভাইসে না থাকে, অথবা মডেলটির কোনো নতুন সংস্করণ উপলব্ধ থাকে, তাহলে টাস্কটি অ্যাসিঙ্ক্রোনাসভাবে ফায়ারবেস থেকে মডেলটি ডাউনলোড করবে:

কোটলিন

val downloadConditions = DownloadConditions.Builder()
    .requireWifi()
    .build()
RemoteModelManager.getInstance().download(remoteModel, downloadConditions)
    .addOnSuccessListener {
        // Success.
    }

জাভা

DownloadConditions downloadConditions = new DownloadConditions.Builder()
        .requireWifi()
        .build();
RemoteModelManager.getInstance().download(remoteModel, downloadConditions)
        .addOnSuccessListener(new OnSuccessListener() {
            @Override
            public void onSuccess(@NonNull Task task) {
                // Success.
            }
        });

অনেক অ্যাপ তাদের ইনিশিয়ালাইজেশন কোডে ডাউনলোডের কাজটি শুরু করে, কিন্তু মডেলটি ব্যবহার করার প্রয়োজন হওয়ার আগে যেকোনো সময়ে আপনি তা করতে পারেন।

আপনার মডেল থেকে একটি ইমেজ লেবেলার তৈরি করুন

আপনার মডেল সোর্সগুলো কনফিগার করার পর, সেগুলোর যেকোনো একটি থেকে একটি ImageLabeler অবজেক্ট তৈরি করুন।

আপনার কাছে যদি কেবল একটি স্থানীয়ভাবে বান্ডেল করা মডেল থাকে, তাহলে আপনার AutoMLImageLabelerLocalModel অবজেক্ট থেকে একটি লেবেলার তৈরি করুন এবং আপনার প্রয়োজনীয় কনফিডেন্স স্কোর থ্রেশহোল্ড কনফিগার করুন ( আপনার মডেল মূল্যায়ন দেখুন):

কোটলিন

val autoMLImageLabelerOptions = AutoMLImageLabelerOptions.Builder(localModel)
    .setConfidenceThreshold(0)  // Evaluate your model in the Firebase console
                                // to determine an appropriate value.
    .build()
val labeler = ImageLabeling.getClient(autoMLImageLabelerOptions)

জাভা

AutoMLImageLabelerOptions autoMLImageLabelerOptions =
        new AutoMLImageLabelerOptions.Builder(localModel)
                .setConfidenceThreshold(0.0f)  // Evaluate your model in the Firebase console
                                               // to determine an appropriate value.
                .build();
ImageLabeler labeler = ImageLabeling.getClient(autoMLImageLabelerOptions)

আপনার যদি দূরবর্তী স্থানে হোস্ট করা কোনো মডেল থাকে, তবে সেটি চালানোর আগে আপনাকে যাচাই করে নিতে হবে যে সেটি ডাউনলোড হয়েছে কি না। আপনি মডেল ম্যানেজারের isModelDownloaded() মেথড ব্যবহার করে মডেল ডাউনলোড টাস্কের অবস্থা পরীক্ষা করতে পারেন।

যদিও লেবেলার চালানোর আগে আপনাকে কেবল এটি নিশ্চিত করতে হবে, আপনার কাছে যদি একটি রিমোটলি-হোস্টেড মডেল এবং একটি লোকালি-বান্ডেলড মডেল উভয়ই থাকে, তবে ইমেজ লেবেলার ইনস্ট্যানশিয়েট করার সময় এই চেকটি করে নেওয়া যুক্তিযুক্ত হতে পারে: যদি রিমোট মডেলটি ডাউনলোড করা হয়ে থাকে তবে সেখান থেকে লেবেলার তৈরি করুন, এবং অন্যথায় লোকাল মডেল থেকে তৈরি করুন।

কোটলিন

RemoteModelManager.getInstance().isModelDownloaded(remoteModel)
    .addOnSuccessListener { isDownloaded -> 
    val optionsBuilder =
        if (isDownloaded) {
            AutoMLImageLabelerOptions.Builder(remoteModel)
        } else {
            AutoMLImageLabelerOptions.Builder(localModel)
        }
    // Evaluate your model in the Firebase console to determine an appropriate threshold.
    val options = optionsBuilder.setConfidenceThreshold(0.0f).build()
    val labeler = ImageLabeling.getClient(options)
}

জাভা

RemoteModelManager.getInstance().isModelDownloaded(remoteModel)
        .addOnSuccessListener(new OnSuccessListener() {
            @Override
            public void onSuccess(Boolean isDownloaded) {
                AutoMLImageLabelerOptions.Builder optionsBuilder;
                if (isDownloaded) {
                    optionsBuilder = new AutoMLImageLabelerOptions.Builder(remoteModel);
                } else {
                    optionsBuilder = new AutoMLImageLabelerOptions.Builder(localModel);
                }
                AutoMLImageLabelerOptions options = optionsBuilder
                        .setConfidenceThreshold(0.0f)  // Evaluate your model in the Firebase console
                                                       // to determine an appropriate threshold.
                        .build();

                ImageLabeler labeler = ImageLabeling.getClient(options);
            }
        });

আপনার কাছে যদি শুধুমাত্র একটি রিমোটলি-হোস্টেড মডেল থাকে, তাহলে মডেলটি ডাউনলোড হয়েছে কিনা তা নিশ্চিত না হওয়া পর্যন্ত আপনার মডেল-সম্পর্কিত কার্যকারিতা নিষ্ক্রিয় করে রাখা উচিত—উদাহরণস্বরূপ, আপনার UI-এর কোনো অংশ ধূসর করে দেওয়া বা লুকিয়ে রাখা। আপনি মডেল ম্যানেজারের download() মেথডে একটি লিসেনার সংযুক্ত করে এটি করতে পারেন:

কোটলিন

RemoteModelManager.getInstance().download(remoteModel, conditions)
    .addOnSuccessListener {
        // Download complete. Depending on your app, you could enable the ML
        // feature, or switch from the local model to the remote model, etc.
    }

জাভা

RemoteModelManager.getInstance().download(remoteModel, conditions)
        .addOnSuccessListener(new OnSuccessListener() {
            @Override
            public void onSuccess(Void v) {
              // Download complete. Depending on your app, you could enable
              // the ML feature, or switch from the local model to the remote
              // model, etc.
            }
        });

২. ইনপুট চিত্রটি প্রস্তুত করুন।

এরপর, আপনি যে প্রতিটি ছবি লেবেল করতে চান, সেটির জন্য আপনার ছবিটি থেকে একটি InputImage অবজেক্ট তৈরি করুন। ইমেজ লেবেলারটি সবচেয়ে দ্রুত চলে যখন আপনি একটি Bitmap অথবা, যদি আপনি camera2 API ব্যবহার করেন, একটি YUV_420_888 media.Image ব্যবহার করেন, যা সম্ভব হলে ব্যবহার করার পরামর্শ দেওয়া হয়।

আপনি বিভিন্ন উৎস থেকে একটি InputImage অবজেক্ট তৈরি করতে পারেন, যার প্রতিটি নিচে ব্যাখ্যা করা হলো।

একটি media.Image ব্যবহার করে

একটি media.Image অবজেক্ট থেকে InputImage অবজেক্ট তৈরি করতে, যেমন যখন আপনি ডিভাইসের ক্যামেরা থেকে একটি ছবি তোলেন, তখন media.Image অবজেক্টটি এবং ছবিটির রোটেশন InputImage.fromMediaImage() ফাংশনে পাস করুন।

আপনি CameraX লাইব্রেরি ব্যবহার করলে, OnImageCapturedListener এবং ImageAnalysis.Analyzer ক্লাসগুলো আপনার জন্য ঘূর্ণন মান গণনা করে দেয়।

কোটলিন

private class YourImageAnalyzer : ImageAnalysis.Analyzer {

    override fun analyze(imageProxy: ImageProxy) {
        val mediaImage = imageProxy.image
        if (mediaImage != null) {
            val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees)
            // Pass image to an ML Kit Vision API
            // ...
        }
    }
}

জাভা

private class YourAnalyzer implements ImageAnalysis.Analyzer {

    @Override
    public void analyze(ImageProxy imageProxy) {
        Image mediaImage = imageProxy.getImage();
        if (mediaImage != null) {
          InputImage image =
                InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees());
          // Pass image to an ML Kit Vision API
          // ...
        }
    }
}

যদি আপনি এমন কোনো ক্যামেরা লাইব্রেরি ব্যবহার না করেন যা আপনাকে ছবির ঘূর্ণন মাত্রা জানিয়ে দেয়, তাহলে আপনি ডিভাইসের ঘূর্ণন মাত্রা এবং ডিভাইসের ক্যামেরা সেন্সরের অভিমুখ থেকে এটি গণনা করতে পারেন:

কোটলিন

private val ORIENTATIONS = SparseIntArray()

init {
    ORIENTATIONS.append(Surface.ROTATION_0, 0)
    ORIENTATIONS.append(Surface.ROTATION_90, 90)
    ORIENTATIONS.append(Surface.ROTATION_180, 180)
    ORIENTATIONS.append(Surface.ROTATION_270, 270)
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
@Throws(CameraAccessException::class)
private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    val deviceRotation = activity.windowManager.defaultDisplay.rotation
    var rotationCompensation = ORIENTATIONS.get(deviceRotation)

    // Get the device's sensor orientation.
    val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager
    val sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION)!!

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360
    }
    return rotationCompensation
}

জাভা

private static final SparseIntArray ORIENTATIONS = new SparseIntArray();
static {
    ORIENTATIONS.append(Surface.ROTATION_0, 0);
    ORIENTATIONS.append(Surface.ROTATION_90, 90);
    ORIENTATIONS.append(Surface.ROTATION_180, 180);
    ORIENTATIONS.append(Surface.ROTATION_270, 270);
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing)
        throws CameraAccessException {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation();
    int rotationCompensation = ORIENTATIONS.get(deviceRotation);

    // Get the device's sensor orientation.
    CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE);
    int sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION);

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360;
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360;
    }
    return rotationCompensation;
}

এরপর, media.Image অবজেক্ট এবং ঘূর্ণন ডিগ্রির মানটি InputImage.fromMediaImage() -এ পাস করুন:

কোটলিন

val image = InputImage.fromMediaImage(mediaImage, rotation)

Java

InputImage image = InputImage.fromMediaImage(mediaImage, rotation);

একটি ফাইল URI ব্যবহার করে

একটি ফাইল URI থেকে InputImage অবজেক্ট তৈরি করতে, InputImage.fromFilePath() -এ অ্যাপ কনটেক্সট এবং ফাইল URI পাস করুন। এটি তখন কাজে আসে যখন আপনি ACTION_GET_CONTENT ইন্টেন্ট ব্যবহার করে ব্যবহারকারীকে তার গ্যালারি অ্যাপ থেকে একটি ছবি বেছে নিতে বলেন।

কোটলিন

val image: InputImage
try {
    image = InputImage.fromFilePath(context, uri)
} catch (e: IOException) {
    e.printStackTrace()
}

Java

InputImage image;
try {
    image = InputImage.fromFilePath(context, uri);
} catch (IOException e) {
    e.printStackTrace();
}

ByteBuffer বা ByteArray ব্যবহার করে

একটি ByteBuffer বা ByteArray থেকে InputImage অবজেক্ট তৈরি করতে, প্রথমে media.Image ইনপুটের জন্য পূর্বে বর্ণিত পদ্ধতি অনুযায়ী ছবির ঘূর্ণন মাত্রা গণনা করুন। তারপর, বাফার বা অ্যারেটি ব্যবহার করে ছবির উচ্চতা, প্রস্থ, কালার এনকোডিং ফরম্যাট এবং ঘূর্ণন মাত্রা সহ InputImage অবজেক্টটি তৈরি করুন।

কোটলিন

val image = InputImage.fromByteBuffer(
        byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)
// Or:
val image = InputImage.fromByteArray(
        byteArray,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)

জাভা

InputImage image = InputImage.fromByteBuffer(byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);
// Or:
InputImage image = InputImage.fromByteArray(
        byteArray,
        /* image width */480,
        /* image height */360,
        rotation,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);

Bitmap ব্যবহার করে

একটি Bitmap অবজেক্ট থেকে InputImage অবজেক্ট তৈরি করতে, নিম্নলিখিত ডিক্লারেশনটি করুন:

কোটলিন

val image = InputImage.fromBitmap(bitmap, 0)

Java

InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);

ছবিটি ঘূর্ণন মাত্রা সহ একটি Bitmap অবজেক্ট দ্বারা উপস্থাপিত হয়।

৩. ইমেজ লেবেলারটি চালান।

কোনো ইমেজের অবজেক্টগুলোকে লেবেল করতে, ImageLabeler এর process() মেথডে image অবজেক্টটি পাস করুন।

কোটলিন

labeler.process(image)
        .addOnSuccessListener { labels ->
            // Task completed successfully
            // ...
        }
        .addOnFailureListener { e ->
            // Task failed with an exception
            // ...
        }

জাভা

labeler.process(image)
        .addOnSuccessListener(new OnSuccessListener<List<ImageLabel>>() {
            @Override
            public void onSuccess(List<ImageLabel> labels) {
                // Task completed successfully
                // ...
            }
        })
        .addOnFailureListener(new OnFailureListener() {
            @Override
            public void onFailure(@NonNull Exception e) {
                // Task failed with an exception
                // ...
            }
        });

৪. চিহ্নিত বস্তুগুলো সম্পর্কে তথ্য সংগ্রহ করুন।

যদি ইমেজ লেবেলিং অপারেশনটি সফল হয়, তাহলে ImageLabel অবজেক্টের একটি তালিকা সাকসেস লিসেনারে পাঠানো হয়। প্রতিটি ImageLabel অবজেক্ট ইমেজের লেবেল করা কোনো একটি বিষয়কে নির্দেশ করে। আপনি প্রতিটি লেবেলের টেক্সট বিবরণ, মিলের কনফিডেন্স স্কোর এবং মিলের ইনডেক্স পেতে পারেন। উদাহরণস্বরূপ:

কোটলিন

for (label in labels) {
    val text = label.text
    val confidence = label.confidence
    val index = label.index
}

জাভা

for (ImageLabel label : labels) {
    String text = label.getText();
    float confidence = label.getConfidence();
    int index = label.getIndex();
}

রিয়েল-টাইম পারফরম্যান্স উন্নত করার টিপস

আপনি যদি কোনো রিয়েল-টাইম অ্যাপ্লিকেশনে ছবি লেবেল করতে চান, তাহলে সেরা ফ্রেমরেট পেতে এই নির্দেশিকাগুলো অনুসরণ করুন:

  • আপনি যদি Camera বা camera2 API ব্যবহার করেন, তাহলে ইমেজ লেবেলারের কলগুলো সীমিত করুন। ইমেজ লেবেলার চলার সময় যদি একটি নতুন ভিডিও ফ্রেম উপলব্ধ হয়, তাহলে ফ্রেমটি বাদ দিন। একটি উদাহরণের জন্য কুইকস্টার্ট স্যাম্পল অ্যাপে VisionProcessorBase ক্লাসটি দেখুন।
  • আপনি যদি CameraX API ব্যবহার করেন, তাহলে নিশ্চিত করুন যে ব্যাকপ্রেশার স্ট্র্যাটেজি তার ডিফল্ট মান ImageAnalysis.STRATEGY_KEEP_ONLY_LATEST এ সেট করা আছে। এটি নিশ্চিত করে যে একবারে বিশ্লেষণের জন্য কেবল একটি ছবিই পাঠানো হবে। অ্যানালাইজার ব্যস্ত থাকা অবস্থায় যদি আরও ছবি তৈরি হয়, তবে সেগুলি স্বয়ংক্রিয়ভাবে বাদ হয়ে যাবে এবং পাঠানোর জন্য সারিতে যুক্ত হবে না। ImageProxy.close() কল করে বিশ্লেষণাধীন ছবিটি বন্ধ করা হলে, পরবর্তী সর্বশেষ ছবিটি পাঠানো হবে।
  • যদি আপনি ইনপুট ইমেজের উপর গ্রাফিক্স ওভারলে করার জন্য ইমেজ লেবেলারের আউটপুট ব্যবহার করেন, তাহলে প্রথমে এমএল কিট (ML Kit) থেকে ফলাফলটি নিন, তারপর ইমেজটি রেন্ডার করুন এবং একটি একক ধাপে ওভারলেটি প্রয়োগ করুন। এর ফলে প্রতিটি ইনপুট ফ্রেমের জন্য ডিসপ্লে সারফেসে কেবল একবারই রেন্ডার হয়। একটি উদাহরণের জন্য কুইকস্টার্ট স্যাম্পল অ্যাপে থাকা CameraSourcePreview এবং GraphicOverlay ক্লাসগুলো দেখুন।
  • আপনি যদি Camera2 API ব্যবহার করেন, তাহলে ImageFormat.YUV_420_888 ফরম্যাটে ছবি তুলুন। আর যদি পুরোনো Camera API ব্যবহার করেন, তাহলে ImageFormat.NV21 ফরম্যাটে ছবি তুলুন।