رصد العناصر وتتبّعها باستخدام أدوات تعلّم الآلة على Android

يمكنك استخدام أدوات تعلُّم الآلة لرصد العناصر في إطارات الفيديو المتتالية وتتبُّعها.

عند تمرير صورة إلى مجموعة أدوات تعلُّم الآلة، ترصد الأداة ما يصل إلى خمسة عناصر في الصورة بالإضافة إلى موضع كل عنصر في الصورة. عند رصد كائنات في أحداث بث الفيديو، يكون لكل كائن معرّف فريد يمكنك استخدامه لتتبُّع الكائن من إطار إلى آخر. يمكنك أيضًا اختياريًا تفعيل تصنيف الكائنات التقريبي، الذي يصنِّف العناصر بأوصاف فئات واسعة.

التجربة الآن

قبل البدء

  1. في ملف build.gradle على مستوى المشروع، احرص على تضمين مستودع Maven من Google في القسمَين buildscript وallprojects.
  2. أضِف الاعتماديات الخاصة بمكتبات ML Kit على Android إلى ملف Gradle على مستوى التطبيق الخاص بالوحدة، والذي يكون عادةً app/build.gradle:
    dependencies {
      // ...
    
      implementation 'com.google.mlkit:object-detection:17.0.1'
    
    }
    

1- ضبط أداة رصد الكائنات

لرصد العناصر وتتبّعها، عليك أولاً إنشاء مثيل ObjectDetector، واختيار أي إعدادات أداة رصد تريد تغييرها من الإعداد التلقائي.

  1. اضبط أداة رصد الكائنات في حالة استخدامك من خلال كائن ObjectDetectorOptions. يمكنك تغيير الإعدادات التالية:

    إعدادات ميزة "رصد الأجسام"
    وضع الكشف STREAM_MODE (الخيار التلقائي) | SINGLE_IMAGE_MODE

    في STREAM_MODE (الإعداد التلقائي)، يتم تشغيل أداة رصد الكائنات بوقت استجابة سريع، ولكن قد تؤدي إلى نتائج غير مكتملة (مثل مربّعات حدود غير محدّدة أو تصنيفات الفئات) عند الاستدعاءات القليلة الأولى لأداة الكشف. بالإضافة إلى ذلك، في STREAM_MODE، تخصِّص أداة الرصد أرقام تعريف تتبُّع للعناصر التي يمكنك استخدامها لتتبُّع العناصر على مستوى الإطارات. يمكنك استخدام هذا الوضع عندما تريد تتبّع العناصر أو عندما يكون وقت الاستجابة البطيء مهمًا، مثلاً عند معالجة فيديوهات بث مباشر في الوقت الفعلي.

    وفي SINGLE_IMAGE_MODE، تعرض أداة رصد الكائنات النتيجة بعد تحديد مربّع إحاطة الكائن. وفي حال تفعيل التصنيف أيضًا، يعرض النتيجة النتيجة بعد توفُّر كل من مربّع الإحاطة وتصنيف الفئة. ونتيجةً لذلك، من المحتمل أن يكون وقت استجابة الرصد أطول. بالإضافة إلى ذلك، في SINGLE_IMAGE_MODE، لا يتم تخصيص أرقام تعريف التتبّع. ويمكنك استخدام هذا الوضع إذا لم يكن وقت الاستجابة بالغ الأهمية ولا تريد التعامل مع نتائج جزئية.

    اكتشِف عناصر متعددة وتتبَّعها false (الخيار التلقائي) | true

    تحدِّد هذه الإعدادات ما إذا كان سيتم رصد ما يصل إلى خمسة عناصر أو العنصر الأكثر بروزًا فقط (الإعداد التلقائي).

    تصنيف العناصر false (الخيار التلقائي) | true

    تحديد ما إذا كان سيتم تصنيف العناصر المرصودة إلى فئات تقريبية أو لا. عند تفعيل هذه الميزة، تصنِّف أداة رصد الكائنات العناصر في الفئات التالية: سلع الأزياء والطعام والسلع المنزلية والأماكن والنباتات.

    تم تحسين واجهة برمجة التطبيقات لاكتشاف الكائنات وتتبعها لحالة الاستخدام الأساسية التالية:

    • الاكتشاف المباشر للكائن الأبرز وتتبّعه في عدسة الكاميرا
    • رصد كائنات متعدّدة من صورة ثابتة

    لضبط واجهة برمجة التطبيقات لحالات الاستخدام هذه:

    Kotlin

    // Live detection and tracking
    val options = ObjectDetectorOptions.Builder()
            .setDetectorMode(ObjectDetectorOptions.STREAM_MODE)
            .enableClassification()  // Optional
            .build()
    
    // Multiple object detection in static images
    val options = ObjectDetectorOptions.Builder()
            .setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE)
            .enableMultipleObjects()
            .enableClassification()  // Optional
            .build()

    Java

    // Live detection and tracking
    ObjectDetectorOptions options =
            new ObjectDetectorOptions.Builder()
                    .setDetectorMode(ObjectDetectorOptions.STREAM_MODE)
                    .enableClassification()  // Optional
                    .build();
    
    // Multiple object detection in static images
    ObjectDetectorOptions options =
            new ObjectDetectorOptions.Builder()
                    .setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE)
                    .enableMultipleObjects()
                    .enableClassification()  // Optional
                    .build();
  2. الحصول على نسخة افتراضية من ObjectDetector:

    Kotlin

    val objectDetector = ObjectDetection.getClient(options)

    Java

    ObjectDetector objectDetector = ObjectDetection.getClient(options);

‫2. تحضير صورة الإدخال

لرصد العناصر وتتبُّعها، مرِّر الصور إلى طريقة process() في مثيل ObjectDetector.

يتم تشغيل أداة رصد الكائنات مباشرةً من Bitmap أو NV21 ByteBuffer أو YUV_420_888 media.Image. ونقترح عليك إنشاء InputImage من هذه المصادر إذا كان بإمكانك الوصول مباشرةً إلى أحد هذه المصادر. إذا أنشأت InputImage من مصادر أخرى، سنتعامل مع الإحالة الناجحة داخليًا وقد تكون أقل فعالية.

بالنسبة إلى كل إطار من لقطات الفيديو أو الصور في تسلسل، عليك اتّباع الخطوات التالية:

يمكنك إنشاء كائن InputImage من مصادر مختلفة، وسيتم توضيح كل منها أدناه.

يتم استخدام media.Image

لإنشاء كائن InputImage من كائن media.Image، مثلاً عند التقاط صورة من كاميرا الجهاز، مرِّر الكائن media.Image وتدوير الصورة إلى InputImage.fromMediaImage().

إذا كنت تستخدم مكتبة CameraX، ستحسب الفئتان OnImageCapturedListener وImageAnalysis.Analyzer قيمة التدوير نيابةً عنك.

Kotlin

private class YourImageAnalyzer : ImageAnalysis.Analyzer {

    override fun analyze(imageProxy: ImageProxy) {
        val mediaImage = imageProxy.image
        if (mediaImage != null) {
            val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees)
            // Pass image to an ML Kit Vision API
            // ...
        }
    }
}

Java

private class YourAnalyzer implements ImageAnalysis.Analyzer {

    @Override
    public void analyze(ImageProxy imageProxy) {
        Image mediaImage = imageProxy.getImage();
        if (mediaImage != null) {
          InputImage image =
                InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees());
          // Pass image to an ML Kit Vision API
          // ...
        }
    }
}

إذا كنت لا تستخدم مكتبة كاميرات تمنحك درجة تدوير الصورة، يمكنك احتسابها من خلال درجة تدوير الجهاز واتجاه أداة استشعار الكاميرا في الجهاز:

Kotlin

private val ORIENTATIONS = SparseIntArray()

init {
    ORIENTATIONS.append(Surface.ROTATION_0, 0)
    ORIENTATIONS.append(Surface.ROTATION_90, 90)
    ORIENTATIONS.append(Surface.ROTATION_180, 180)
    ORIENTATIONS.append(Surface.ROTATION_270, 270)
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
@Throws(CameraAccessException::class)
private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    val deviceRotation = activity.windowManager.defaultDisplay.rotation
    var rotationCompensation = ORIENTATIONS.get(deviceRotation)

    // Get the device's sensor orientation.
    val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager
    val sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION)!!

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360
    }
    return rotationCompensation
}

Java

private static final SparseIntArray ORIENTATIONS = new SparseIntArray();
static {
    ORIENTATIONS.append(Surface.ROTATION_0, 0);
    ORIENTATIONS.append(Surface.ROTATION_90, 90);
    ORIENTATIONS.append(Surface.ROTATION_180, 180);
    ORIENTATIONS.append(Surface.ROTATION_270, 270);
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing)
        throws CameraAccessException {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation();
    int rotationCompensation = ORIENTATIONS.get(deviceRotation);

    // Get the device's sensor orientation.
    CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE);
    int sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION);

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360;
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360;
    }
    return rotationCompensation;
}

بعد ذلك، مرِّر الكائن media.Image وقيمة درجة التدوير إلى InputImage.fromMediaImage():

Kotlin

val image = InputImage.fromMediaImage(mediaImage, rotation)

Java

InputImage image = InputImage.fromMediaImage(mediaImage, rotation);

استخدام معرف موارد منتظم (URI) لملف

لإنشاء كائن InputImage من معرّف الموارد المنتظم (URI) الخاص بملف، أدخِل سياق التطبيق ومعرّف الموارد المنتظم (URI) الخاص بالملف إلى InputImage.fromFilePath(). ويكون هذا الإجراء مفيدًا عند استخدام هدف ACTION_GET_CONTENT لتطلب من المستخدم اختيار صورة من تطبيق معرض الصور.

Kotlin

val image: InputImage
try {
    image = InputImage.fromFilePath(context, uri)
} catch (e: IOException) {
    e.printStackTrace()
}

Java

InputImage image;
try {
    image = InputImage.fromFilePath(context, uri);
} catch (IOException e) {
    e.printStackTrace();
}

يتم استخدام ByteBuffer أو ByteArray

لإنشاء كائن InputImage من ByteBuffer أو ByteArray، احسب أولاً درجة تدوير الصورة كما هو موضّح سابقًا في إدخال media.Image. بعد ذلك، يمكنك إنشاء الكائن InputImage باستخدام المخزن المؤقت أو المصفوفة بالإضافة إلى ارتفاع الصورة وعرضها وتنسيق ترميز الألوان ودرجة التدوير:

Kotlin

val image = InputImage.fromByteBuffer(
        byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)
// Or:
val image = InputImage.fromByteArray(
        byteArray,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)

Java

InputImage image = InputImage.fromByteBuffer(byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);
// Or:
InputImage image = InputImage.fromByteArray(
        byteArray,
        /* image width */480,
        /* image height */360,
        rotation,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);

يتم استخدام Bitmap

لإنشاء كائن InputImage من كائن Bitmap، عليك إنشاء التعريف التالي:

Kotlin

val image = InputImage.fromBitmap(bitmap, 0)

Java

InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);

يتم تمثيل الصورة بواسطة كائن Bitmap مع درجات التدوير.

3- معالجة الصورة

تمرير الصورة إلى طريقة process():

Kotlin

objectDetector.process(image)
    .addOnSuccessListener { detectedObjects ->
        // Task completed successfully
        // ...
    }
    .addOnFailureListener { e ->
        // Task failed with an exception
        // ...
    }

Java

objectDetector.process(image)
    .addOnSuccessListener(
        new OnSuccessListener<List<DetectedObject>>() {
            @Override
            public void onSuccess(List<DetectedObject> detectedObjects) {
                // Task completed successfully
                // ...
            }
        })
    .addOnFailureListener(
        new OnFailureListener() {
            @Override
            public void onFailure(@NonNull Exception e) {
                // Task failed with an exception
                // ...
            }
        });

‫4. الحصول على معلومات عن العناصر المرصودة

إذا نجح الاتصال إلى process()، يتم إرسال قائمة تضم DetectedObject إلى المستمِع الناجح.

يحتوي كل DetectedObject على السمات التالية:

مربّع ربط العناصر سمة Rect تشير إلى موضع العنصر في الصورة
الرقم التعريفي للتتبع عدد صحيح يعرّف العنصر عبر الصور. خالية في SINGLE_IMAGE_mode.
التصنيفات
وصف التصنيف الوصف النصي للتصنيف. وسيكون هذا الحقل أحد ثوابت السلسلة المحدّدة في PredefinedCategory.
فهرس التصنيف هو فهرس التصنيف بين كل التصنيفات المتوافقة مع المصنِّف. وسيكون أحد ثوابت الأعداد الصحيحة المحدّدة في PredefinedCategory.
الثقة في التصنيف قيمة الثقة لتصنيف العنصر.

Kotlin

for (detectedObject in detectedObjects) {
    val boundingBox = detectedObject.boundingBox
    val trackingId = detectedObject.trackingId
    for (label in detectedObject.labels) {
        val text = label.text
        if (PredefinedCategory.FOOD == text) {
            ...
        }
        val index = label.index
        if (PredefinedCategory.FOOD_INDEX == index) {
            ...
        }
        val confidence = label.confidence
    }
}

Java

// The list of detected objects contains one item if multiple
// object detection wasn't enabled.
for (DetectedObject detectedObject : detectedObjects) {
    Rect boundingBox = detectedObject.getBoundingBox();
    Integer trackingId = detectedObject.getTrackingId();
    for (Label label : detectedObject.getLabels()) {
        String text = label.getText();
        if (PredefinedCategory.FOOD.equals(text)) {
            ...
        }
        int index = label.getIndex();
        if (PredefinedCategory.FOOD_INDEX == index) {
            ...
        }
        float confidence = label.getConfidence();
    }
}

ضمان تجربة رائعة للمستخدم

لتقديم أفضل تجربة للمستخدم، يُرجى اتّباع الإرشادات التالية في تطبيقك:

  • يعتمد اكتشاف الكائن الناجح على التعقيد البصري للكائن. من أجل أن يتم رصدها، قد تحتاج الأجسام التي تضم عددًا صغيرًا من الميزات المرئية إلى مساحة أكبر من الصورة. يجب عليك تزويد المستخدمين بإرشادات حول التقاط المدخلات التي تعمل بشكل جيد مع نوع الكائنات التي تريد اكتشافها.
  • عند استخدام التصنيف، إذا كنت تريد رصد الكائنات التي لا تندرج بشكلٍ سليم في الفئات المتوافقة، عليك تنفيذ معالجة خاصة للكائنات غير المعروفة.

يمكنك أيضًا الاطّلاع على تطبيق عرض التصميم المتعدد الأبعاد (ML Kit) ومجموعة أنماط التصميم المتعدد الأبعاد للميزات التي تعتمد على تعلُّم الآلة.

Improving performance

إذا أردت استخدام ميزة رصد الكائنات في تطبيق في الوقت الفعلي، يُرجى اتّباع هذه الإرشادات لتحقيق أفضل معدّلات عرض الإطارات:

  • عند استخدام وضع البث في تطبيق في الوقت الفعلي، يجب عدم استخدام ميزة رصد كائنات متعدّدة، لأنّ معظم الأجهزة لن تتمكّن من إنتاج معدّلات مناسبة للقطات في الثانية.

  • يمكنك إيقاف التصنيف إذا لم تكن بحاجة إليه.

  • في حال استخدام واجهة برمجة التطبيقات Camera أو camera2، يمكنك منع الطلبات الواردة إلى أداة الرصد. إذا أصبح إطار فيديو جديد متاحًا أثناء تشغيل أداة الرصد، أفلِت الإطار. اطّلِع على الصف VisionProcessorBase في نموذج تطبيق Quickstart للحصول على مثال.
  • إذا كنت تستخدم واجهة برمجة تطبيقات CameraX، تأكَّد من ضبط استراتيجية الضغط العكسي على قيمتها التلقائية ImageAnalysis.STRATEGY_KEEP_ONLY_LATEST. وهذا يضمن تسليم صورة واحدة فقط للتحليل في كل مرة. إذا تم إنتاج المزيد من الصور عندما تكون أداة التحليل مشغولة، سيتم تجاهلها تلقائيًا ولن يتم وضعها في قائمة الانتظار للتسليم. بعد إغلاق الصورة التي يتم تحليلها من خلال استدعاء ImageProxy.Close() ، سيتم تسليم آخر صورة تالية.
  • في حال استخدام نتائج أداة الرصد لتركيب رسومات على الصورة التي تم إدخالها، يمكنك أولاً الحصول على النتيجة من ML Kit، ثم عرض الصورة والمحتوى الذي يظهر على سطح الفيديو في خطوة واحدة. ويظهر هذا الإجراء على سطح العرض مرة واحدة فقط لكل إطار إدخال. اطّلِع على صفّتَي CameraSourcePreview و GraphicOverlay في نموذج تطبيق Quickstart للحصول على مثال.
  • في حال استخدام واجهة برمجة التطبيقات Camera2 API، يمكنك التقاط صور بتنسيق ImageFormat.YUV_420_888. في حال استخدام واجهة برمجة التطبيقات للكاميرا القديمة، يمكنك التقاط صور بتنسيق ImageFormat.NV21.