অ্যান্ড্রয়েডে অটোএমএল-প্রশিক্ষিত মডেল দিয়ে ছবি লেবেল করুন
AutoML Vision Edge ব্যবহার করে আপনার নিজস্ব মডেলকে প্রশিক্ষণ দেওয়ার পর, আপনি আপনার অ্যাপে ছবি লেবেল করার জন্য এটি ব্যবহার করতে পারেন। AutoML Vision Edge থেকে প্রশিক্ষিত মডেলগুলিকে একীভূত করার দুটি উপায় রয়েছে: আপনি মডেলটিকে আপনার অ্যাপের অ্যাসেট ফোল্ডারে রেখে বান্ডল করতে পারেন, অথবা আপনি Firebase থেকে এটি ডায়নামিকভাবে ডাউনলোড করতে পারেন।| মডেল বান্ডলিং বিকল্পগুলি | |
|---|---|
| আপনার অ্যাপে অন্তর্ভুক্ত |
|
| ফায়ারবেস দিয়ে হোস্ট করা হয়েছে |
|
চেষ্টা করে দেখুন
- এই API-টির একটি উদাহরণমূলক ব্যবহার দেখতে নমুনা অ্যাপটি ব্যবহার করে দেখুন।
শুরু করার আগে
আপনার প্রজেক্ট-স্তরেরbuild.gradle ফাইলে, buildscript এবং allprojects উভয় সেকশনেই গুগলের মেভেন রিপোজিটরি অন্তর্ভুক্ত করা নিশ্চিত করুন।২. আপনার মডিউলের অ্যাপ-লেভেল গ্রেডল ফাইলে (যা সাধারণত
app/build.gradle হয়) এমএল কিট অ্যান্ড্রয়েড লাইব্রেরির ডিপেন্ডেন্সিগুলো যোগ করুন: আপনার অ্যাপের সাথে একটি মডেল বান্ডল করার জন্য:
dependencies {
// ...
// Image labeling feature with bundled automl model
implementation 'com.google.mlkit:image-labeling-automl:16.2.1'
}
linkFirebase ডিপেন্ডেন্সিটি যোগ করুন:
dependencies {
// ...
// Image labeling feature with automl model downloaded
// from firebase
implementation 'com.google.mlkit:image-labeling-automl:16.2.1'
implementation 'com.google.mlkit:linkfirebase:16.0.1'
}
১. মডেলটি লোড করুন
একটি স্থানীয় মডেল উৎস কনফিগার করুন
আপনার অ্যাপের সাথে মডেলটি বান্ডল করতে:১. ফায়ারবেস কনসোল থেকে ডাউনলোড করা জিপ আর্কাইভটি থেকে মডেল এবং এর মেটাডেটা এক্সট্র্যাক্ট করুন। আমরা আপনাকে পরামর্শ দিচ্ছি যে, ফাইলগুলো কোনো পরিবর্তন (ফাইলের নাম সহ) না করে, যেভাবে ডাউনলোড করেছেন সেভাবেই ব্যবহার করুন।
২. আপনার অ্যাপ প্যাকেজে আপনার মডেল এবং এর মেটাডেটা ফাইলগুলো অন্তর্ভুক্ত করুন:
ক. আপনার প্রোজেক্টে যদি অ্যাসেটস ফোল্ডার না থাকে, তাহলে
app/ ফোল্ডারটিতে রাইট-ক্লিক করে New > Folder > Assets Folder-এ ক্লিক করে একটি ফোল্ডার তৈরি করুন।খ. মডেল ফাইলগুলো রাখার জন্য অ্যাসেটস ফোল্ডারের অধীনে একটি সাব-ফোল্ডার তৈরি করুন।
গ.
model.tflite , dict.txt এবং manifest.json ফাইলগুলো সাব-ফোল্ডারে কপি করুন (তিনটি ফাইলই অবশ্যই একই ফোল্ডারে থাকতে হবে)।৩. আপনার অ্যাপের
build.gradle ফাইলে নিম্নলিখিতটি যোগ করুন, যাতে অ্যাপটি বিল্ড করার সময় Gradle মডেল ফাইলটিকে কম্প্রেস না করে:
android {
// ...
aaptOptions {
noCompress "tflite"
}
}
দ্রষ্টব্য: অ্যান্ড্রয়েড গ্র্যাডল প্লাগইনের ৪.১ সংস্করণ থেকে, .tflite ডিফল্টরূপে noCompress তালিকায় যুক্ত হয়ে যাবে এবং উপরেরটির আর প্রয়োজন হবে না।
৪. মডেল ম্যানিফেস্ট ফাইলের পাথ উল্লেখ করে
LocalModel অবজেক্ট তৈরি করুন: কোটলিন
val localModel = AutoMLImageLabelerLocalModel.Builder() .setAssetFilePath("manifest.json") // or .setAbsoluteFilePath(absolute file path to manifest file) .build()
জাভা
AutoMLImageLabelerLocalModel localModel = new AutoMLImageLabelerLocalModel.Builder() .setAssetFilePath("manifest.json") // or .setAbsoluteFilePath(absolute file path to manifest file) .build();
ফায়ারবেস-হোস্টেড মডেল সোর্স কনফিগার করুন
রিমোটলি-হোস্টেড মডেলটি ব্যবহার করতে, একটি RemoteModel অবজেক্ট তৈরি করুন এবং মডেলটি পাবলিশ করার সময় আপনি যে নামটি দিয়েছিলেন, সেটি উল্লেখ করুন:
কোটলিন
// Specify the name you assigned in the Firebase console. val remoteModel = AutoMLImageLabelerRemoteModel.Builder("your_model_name").build()
জাভা
// Specify the name you assigned in the Firebase console. AutoMLImageLabelerRemoteModel remoteModel = new AutoMLImageLabelerRemoteModel.Builder("your_model_name").build();
এরপর, মডেল ডাউনলোড টাস্কটি শুরু করুন এবং কোন শর্তে আপনি ডাউনলোডের অনুমতি দিতে চান তা উল্লেখ করুন। যদি মডেলটি ডিভাইসে না থাকে, অথবা মডেলটির কোনো নতুন সংস্করণ উপলব্ধ থাকে, তাহলে টাস্কটি অ্যাসিঙ্ক্রোনাসভাবে ফায়ারবেস থেকে মডেলটি ডাউনলোড করবে:
কোটলিন
val downloadConditions = DownloadConditions.Builder() .requireWifi() .build() RemoteModelManager.getInstance().download(remoteModel, downloadConditions) .addOnSuccessListener { // Success. }
জাভা
DownloadConditions downloadConditions = new DownloadConditions.Builder() .requireWifi() .build(); RemoteModelManager.getInstance().download(remoteModel, downloadConditions) .addOnSuccessListener(new OnSuccessListener() { @Override public void onSuccess(@NonNull Task task) { // Success. } });
অনেক অ্যাপ তাদের ইনিশিয়ালাইজেশন কোডে ডাউনলোডের কাজটি শুরু করে, কিন্তু মডেলটি ব্যবহার করার প্রয়োজন হওয়ার আগে যেকোনো সময়ে আপনি তা করতে পারেন।
আপনার মডেল থেকে একটি ইমেজ লেবেলার তৈরি করুন
আপনার মডেল সোর্সগুলো কনফিগার করার পর, সেগুলোর যেকোনো একটি থেকে একটি ImageLabeler অবজেক্ট তৈরি করুন।
আপনার কাছে যদি কেবল একটি স্থানীয়ভাবে বান্ডেল করা মডেল থাকে, তাহলে আপনার AutoMLImageLabelerLocalModel অবজেক্ট থেকে একটি লেবেলার তৈরি করুন এবং আপনার প্রয়োজনীয় কনফিডেন্স স্কোর থ্রেশহোল্ড কনফিগার করুন ( আপনার মডেল মূল্যায়ন দেখুন):
কোটলিন
val autoMLImageLabelerOptions = AutoMLImageLabelerOptions.Builder(localModel) .setConfidenceThreshold(0) // Evaluate your model in the Firebase console // to determine an appropriate value. .build() val labeler = ImageLabeling.getClient(autoMLImageLabelerOptions)
জাভা
AutoMLImageLabelerOptions autoMLImageLabelerOptions = new AutoMLImageLabelerOptions.Builder(localModel) .setConfidenceThreshold(0.0f) // Evaluate your model in the Firebase console // to determine an appropriate value. .build(); ImageLabeler labeler = ImageLabeling.getClient(autoMLImageLabelerOptions)
আপনার যদি দূরবর্তী স্থানে হোস্ট করা কোনো মডেল থাকে, তবে সেটি চালানোর আগে আপনাকে যাচাই করে নিতে হবে যে সেটি ডাউনলোড হয়েছে কি না। আপনি মডেল ম্যানেজারের isModelDownloaded() মেথড ব্যবহার করে মডেল ডাউনলোড টাস্কের অবস্থা পরীক্ষা করতে পারেন।
যদিও লেবেলার চালানোর আগে আপনাকে কেবল এটি নিশ্চিত করতে হবে, আপনার কাছে যদি একটি রিমোটলি-হোস্টেড মডেল এবং একটি লোকালি-বান্ডেলড মডেল উভয়ই থাকে, তবে ইমেজ লেবেলার ইনস্ট্যানশিয়েট করার সময় এই চেকটি করে নেওয়া যুক্তিযুক্ত হতে পারে: যদি রিমোট মডেলটি ডাউনলোড করা হয়ে থাকে তবে সেখান থেকে লেবেলার তৈরি করুন, এবং অন্যথায় লোকাল মডেল থেকে তৈরি করুন।
কোটলিন
RemoteModelManager.getInstance().isModelDownloaded(remoteModel) .addOnSuccessListener { isDownloaded -> val optionsBuilder = if (isDownloaded) { AutoMLImageLabelerOptions.Builder(remoteModel) } else { AutoMLImageLabelerOptions.Builder(localModel) } // Evaluate your model in the Firebase console to determine an appropriate threshold. val options = optionsBuilder.setConfidenceThreshold(0.0f).build() val labeler = ImageLabeling.getClient(options) }
জাভা
RemoteModelManager.getInstance().isModelDownloaded(remoteModel) .addOnSuccessListener(new OnSuccessListener() { @Override public void onSuccess(Boolean isDownloaded) { AutoMLImageLabelerOptions.Builder optionsBuilder; if (isDownloaded) { optionsBuilder = new AutoMLImageLabelerOptions.Builder(remoteModel); } else { optionsBuilder = new AutoMLImageLabelerOptions.Builder(localModel); } AutoMLImageLabelerOptions options = optionsBuilder .setConfidenceThreshold(0.0f) // Evaluate your model in the Firebase console // to determine an appropriate threshold. .build(); ImageLabeler labeler = ImageLabeling.getClient(options); } });
আপনার কাছে যদি শুধুমাত্র একটি রিমোটলি-হোস্টেড মডেল থাকে, তাহলে মডেলটি ডাউনলোড হয়েছে কিনা তা নিশ্চিত না হওয়া পর্যন্ত আপনার মডেল-সম্পর্কিত কার্যকারিতা নিষ্ক্রিয় করে রাখা উচিত—উদাহরণস্বরূপ, আপনার UI-এর কোনো অংশ ধূসর করে দেওয়া বা লুকিয়ে রাখা। আপনি মডেল ম্যানেজারের download() মেথডে একটি লিসেনার সংযুক্ত করে এটি করতে পারেন:
কোটলিন
RemoteModelManager.getInstance().download(remoteModel, conditions) .addOnSuccessListener { // Download complete. Depending on your app, you could enable the ML // feature, or switch from the local model to the remote model, etc. }
জাভা
RemoteModelManager.getInstance().download(remoteModel, conditions) .addOnSuccessListener(new OnSuccessListener() { @Override public void onSuccess(Void v) { // Download complete. Depending on your app, you could enable // the ML feature, or switch from the local model to the remote // model, etc. } });
২. ইনপুট চিত্রটি প্রস্তুত করুন।
এরপর, আপনি যে প্রতিটি ছবি লেবেল করতে চান, সেটির জন্য আপনার ছবিটি থেকে একটি InputImage অবজেক্ট তৈরি করুন। ইমেজ লেবেলারটি সবচেয়ে দ্রুত চলে যখন আপনি একটি Bitmap অথবা, যদি আপনি camera2 API ব্যবহার করেন, একটি YUV_420_888 media.Image ব্যবহার করেন, যা সম্ভব হলে ব্যবহার করার পরামর্শ দেওয়া হয়।
আপনি বিভিন্ন উৎস থেকে একটি InputImage অবজেক্ট তৈরি করতে পারেন, যার প্রতিটি নিচে ব্যাখ্যা করা হলো।
একটি media.Image ব্যবহার করে
একটি media.Image অবজেক্ট থেকে InputImage অবজেক্ট তৈরি করতে, যেমন যখন আপনি ডিভাইসের ক্যামেরা থেকে একটি ছবি তোলেন, তখন media.Image অবজেক্টটি এবং ছবিটির রোটেশন InputImage.fromMediaImage() ফাংশনে পাস করুন।
আপনি CameraX লাইব্রেরি ব্যবহার করলে, OnImageCapturedListener এবং ImageAnalysis.Analyzer ক্লাসগুলো আপনার জন্য ঘূর্ণন মান গণনা করে দেয়।
কোটলিন
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
জাভা
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
যদি আপনি এমন কোনো ক্যামেরা লাইব্রেরি ব্যবহার না করেন যা আপনাকে ছবির ঘূর্ণন মাত্রা জানিয়ে দেয়, তাহলে আপনি ডিভাইসের ঘূর্ণন মাত্রা এবং ডিভাইসের ক্যামেরা সেন্সরের অভিমুখ থেকে এটি গণনা করতে পারেন:
কোটলিন
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
জাভা
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
এরপর, media.Image অবজেক্ট এবং ঘূর্ণন ডিগ্রির মানটি InputImage.fromMediaImage() -এ পাস করুন:
কোটলিন
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
একটি ফাইল URI ব্যবহার করে
একটি ফাইল URI থেকে InputImage অবজেক্ট তৈরি করতে, InputImage.fromFilePath() -এ অ্যাপ কনটেক্সট এবং ফাইল URI পাস করুন। এটি তখন কাজে আসে যখন আপনি ACTION_GET_CONTENT ইন্টেন্ট ব্যবহার করে ব্যবহারকারীকে তার গ্যালারি অ্যাপ থেকে একটি ছবি বেছে নিতে বলেন।
কোটলিন
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
ByteBuffer বা ByteArray ব্যবহার করে
একটি ByteBuffer বা ByteArray থেকে InputImage অবজেক্ট তৈরি করতে, প্রথমে media.Image ইনপুটের জন্য পূর্বে বর্ণিত পদ্ধতি অনুযায়ী ছবির ঘূর্ণন মাত্রা গণনা করুন। তারপর, বাফার বা অ্যারেটি ব্যবহার করে ছবির উচ্চতা, প্রস্থ, কালার এনকোডিং ফরম্যাট এবং ঘূর্ণন মাত্রা সহ InputImage অবজেক্টটি তৈরি করুন।
কোটলিন
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
জাভা
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
Bitmap ব্যবহার করে
একটি Bitmap অবজেক্ট থেকে InputImage অবজেক্ট তৈরি করতে, নিম্নলিখিত ডিক্লারেশনটি করুন:
কোটলিন
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
ছবিটি ঘূর্ণন মাত্রা সহ একটি Bitmap অবজেক্ট দ্বারা উপস্থাপিত হয়।
৩. ইমেজ লেবেলারটি চালান।
কোনো ইমেজের অবজেক্টগুলোকে লেবেল করতে,ImageLabeler এর process() মেথডে image অবজেক্টটি পাস করুন। কোটলিন
labeler.process(image) .addOnSuccessListener { labels -> // Task completed successfully // ... } .addOnFailureListener { e -> // Task failed with an exception // ... }
জাভা
labeler.process(image) .addOnSuccessListener(new OnSuccessListener<List<ImageLabel>>() { @Override public void onSuccess(List<ImageLabel> labels) { // Task completed successfully // ... } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } });
৪. চিহ্নিত বস্তুগুলো সম্পর্কে তথ্য সংগ্রহ করুন।
যদি ইমেজ লেবেলিং অপারেশনটি সফল হয়, তাহলে ImageLabel অবজেক্টের একটি তালিকা সাকসেস লিসেনারে পাঠানো হয়। প্রতিটি ImageLabel অবজেক্ট ইমেজের লেবেল করা কোনো একটি বিষয়কে নির্দেশ করে। আপনি প্রতিটি লেবেলের টেক্সট বিবরণ, মিলের কনফিডেন্স স্কোর এবং মিলের ইনডেক্স পেতে পারেন। উদাহরণস্বরূপ:
কোটলিন
for (label in labels) { val text = label.text val confidence = label.confidence val index = label.index }
জাভা
for (ImageLabel label : labels) { String text = label.getText(); float confidence = label.getConfidence(); int index = label.getIndex(); }
রিয়েল-টাইম পারফরম্যান্স উন্নত করার টিপস
আপনি যদি কোনো রিয়েল-টাইম অ্যাপ্লিকেশনে ছবি লেবেল করতে চান, তাহলে সেরা ফ্রেমরেট পেতে এই নির্দেশিকাগুলো অনুসরণ করুন:
- আপনি যদি
Cameraবাcamera2API ব্যবহার করেন, তাহলে ইমেজ লেবেলারের কলগুলো সীমিত করুন। ইমেজ লেবেলার চলার সময় যদি একটি নতুন ভিডিও ফ্রেম উপলব্ধ হয়, তাহলে ফ্রেমটি বাদ দিন। একটি উদাহরণের জন্য কুইকস্টার্ট স্যাম্পল অ্যাপেVisionProcessorBaseক্লাসটি দেখুন। - আপনি যদি
CameraXAPI ব্যবহার করেন, তাহলে নিশ্চিত করুন যে ব্যাকপ্রেশার স্ট্র্যাটেজি তার ডিফল্ট মানImageAnalysis.STRATEGY_KEEP_ONLY_LATESTএ সেট করা আছে। এটি নিশ্চিত করে যে একবারে বিশ্লেষণের জন্য কেবল একটি ছবিই পাঠানো হবে। অ্যানালাইজার ব্যস্ত থাকা অবস্থায় যদি আরও ছবি তৈরি হয়, তবে সেগুলি স্বয়ংক্রিয়ভাবে বাদ হয়ে যাবে এবং পাঠানোর জন্য সারিতে যুক্ত হবে না। ImageProxy.close() কল করে বিশ্লেষণাধীন ছবিটি বন্ধ করা হলে, পরবর্তী সর্বশেষ ছবিটি পাঠানো হবে। - যদি আপনি ইনপুট ইমেজের উপর গ্রাফিক্স ওভারলে করার জন্য ইমেজ লেবেলারের আউটপুট ব্যবহার করেন, তাহলে প্রথমে এমএল কিট (ML Kit) থেকে ফলাফলটি নিন, তারপর ইমেজটি রেন্ডার করুন এবং একটি একক ধাপে ওভারলেটি প্রয়োগ করুন। এর ফলে প্রতিটি ইনপুট ফ্রেমের জন্য ডিসপ্লে সারফেসে কেবল একবারই রেন্ডার হয়। একটি উদাহরণের জন্য কুইকস্টার্ট স্যাম্পল অ্যাপে থাকা
CameraSourcePreviewএবংGraphicOverlayক্লাসগুলো দেখুন। - আপনি যদি Camera2 API ব্যবহার করেন, তাহলে
ImageFormat.YUV_420_888ফরম্যাটে ছবি তুলুন। আর যদি পুরোনো Camera API ব্যবহার করেন, তাহলেImageFormat.NV21ফরম্যাটে ছবি তুলুন।