Phát hiện khuôn mặt bằng Bộ công cụ máy học trên Android

Bạn có thể dùng Bộ công cụ máy học để phát hiện khuôn mặt trong hình ảnh và video.

Có hai cách để tích hợp tính năng phát hiện khuôn mặt: mô hình đi kèm là một phần của ứng dụng và một mô hình chưa nhóm phụ thuộc vào Dịch vụ Google Play. Hai mô hình giống nhau. Nếu bạn chọn mô hình chưa nhóm, ứng dụng sẽ nhỏ hơn.

Tính năngChưa nhómGộp chung
Triển khaiMô hình được tải xuống tự động thông qua Dịch vụ Google Play.Mô hình được liên kết tĩnh với ứng dụng của bạn tại thời điểm xây dựng.
Kích thước ứng dụngMức tăng kích thước khoảng 800 KB.Dung lượng tăng khoảng 6,9 MB.
Thời gian khởi chạyBạn có thể phải đợi mô hình tải xuống trước khi sử dụng lần đầu tiên.Mẫu có sẵn ngay lập tức

Trước khi bắt đầu

  1. Trong tệp build.gradle cấp dự án, hãy nhớ thêm kho lưu trữ Maven của Google vào cả hai mục buildscriptallprojects.

  2. Thêm các phần phụ thuộc cho thư viện Android của Bộ công cụ máy học vào tệp gradle cấp ứng dụng của bạn, thường là app/build.gradle. Hãy chọn một trong những phần phụ thuộc sau đây dựa trên nhu cầu của bạn:

    Để đóng gói mô hình bằng ứng dụng:

    dependencies {
      // ...
      // Use this dependency to bundle the model with your app
      implementation 'com.google.mlkit:face-detection:16.1.5'
    }
    

    Cách sử dụng mô hình trong Dịch vụ Google Play:

    dependencies {
      // ...
      // Use this dependency to use the dynamically downloaded model in Google Play Services
      implementation 'com.google.android.gms:play-services-mlkit-face-detection:17.1.0'
    }
    
  3. Nếu chọn sử dụng mô hình này trong Dịch vụ Google Play, bạn có thể định cấu hình ứng dụng để tự động tải mô hình đó xuống thiết bị sau khi ứng dụng được cài đặt từ Cửa hàng Play. Để thực hiện việc này, hãy thêm nội dung khai báo sau vào tệp AndroidManifest.xml của ứng dụng:

    <application ...>
          ...
          <meta-data
              android:name="com.google.mlkit.vision.DEPENDENCIES"
              android:value="face" >
          <!-- To use multiple models: android:value="face,model2,model3" -->
    </application>
    

    Bạn cũng có thể kiểm tra rõ ràng tình trạng cung cấp mô hình và yêu cầu tải xuống thông qua API InstallInstallClient của Dịch vụ Google Play.

    Nếu bạn không cho phép tải mô hình tại thời điểm cài đặt xuống hoặc yêu cầu tải xuống rõ ràng, mô hình sẽ được tải xuống vào lần đầu tiên bạn chạy trình phát hiện. Các yêu cầu bạn thực hiện trước khi tải xuống không tạo ra kết quả nào.

Nhập nguyên tắc về hình ảnh

Để nhận dạng khuôn mặt, bạn nên sử dụng hình ảnh có kích thước tối thiểu là 480x360 pixel. Để Bộ công cụ máy học phát hiện khuôn mặt chính xác, hình ảnh nhập vào phải chứa khuôn mặt do đủ dữ liệu pixel. Nhìn chung, mỗi khuôn mặt mà bạn muốn phát hiện trong hình ảnh phải có kích thước tối thiểu là 100x100 pixel. Nếu muốn phát hiện các đường nét của khuôn mặt, Bộ công cụ máy học sẽ yêu cầu dữ liệu đầu vào có độ phân giải cao hơn: mỗi khuôn mặt phải có kích thước tối thiểu là 200x200 pixel.

Nếu phát hiện khuôn mặt trong một ứng dụng theo thời gian thực, bạn cũng nên xem xét kích thước tổng thể của hình ảnh nhập vào. Hình ảnh nhỏ có thể được xử lý nhanh hơn. Vì vậy, để giảm độ trễ, chụp ảnh ở độ phân giải thấp hơn, nhưng hãy lưu ý những yêu cầu về độ chính xác nêu trên và đảm bảo rằng khuôn mặt của chủ thể chiếm càng nhiều hình ảnh càng tốt. Ngoài ra, hãy xem các mẹo cải thiện hiệu suất theo thời gian thực.

Tiêu điểm không chính xác về hình ảnh cũng có thể ảnh hưởng đến độ chính xác. Nếu bạn không nhận được kết quả phù hợp, hãy yêu cầu người dùng chụp lại hình ảnh.

Hướng của khuôn mặt so với máy ảnh cũng có thể ảnh hưởng đến việc Bộ công cụ máy học phát hiện được các đặc điểm trên khuôn mặt. Xem Khái niệm về tính năng phát hiện khuôn mặt.

1. Định cấu hình trình phát hiện khuôn mặt

Trước khi áp dụng tính năng phát hiện khuôn mặt cho một hình ảnh, nếu bạn muốn thay đổi bất kỳ chế độ cài đặt mặc định nào của trình phát hiện khuôn mặt, hãy chỉ định các chế độ cài đặt đó bằng đối tượng FaceDetectorOptions. Bạn có thể thay đổi các chế độ cài đặt sau:

Cài đặt
setPerformanceMode PERFORMANCE_MODE_FAST (mặc định) PERFORMANCE_MODE_ACCURATE

Ưu tiên tốc độ hoặc độ chính xác khi phát hiện khuôn mặt.

setLandmarkMode LANDMARK_MODE_NONE (mặc định) LANDMARK_MODE_ALL

Liệu có cố gắng nhận dạng khuôn mặt (quot;landmarks&quot hay không;: mắt, tai, mũi, má, miệng, v.v.).

setContourMode CONTOUR_MODE_NONE (mặc định) CONTOUR_MODE_ALL

Liệu có phát hiện được các đường nét của đặc điểm trên khuôn mặt hay không. Các đường nét chỉ được phát hiện trên khuôn mặt nổi bật nhất.

setClassificationMode CLASSIFICATION_MODE_NONE (mặc định) CLASSIFICATION_MODE_ALL

Liệu có phân loại khuôn mặt thành các danh mục như "smiling", và "eyes open" hay không.

setMinFaceSize float (mặc định: 0.1f)

Đặt kích thước khuôn mặt mong muốn nhỏ nhất, được biểu thị bằng tỷ lệ giữa chiều rộng đầu và chiều rộng của hình ảnh.

enableTracking false (mặc định) | true

Liệu có chỉ định khuôn mặt hay không bằng mã nhận dạng. Bạn có thể sử dụng mã nhận dạng này để theo dõi khuôn mặt trên các hình ảnh.

Xin lưu ý rằng khi bật tính năng phát hiện đường viền, hệ thống chỉ phát hiện được một khuôn mặt. Vì vậy, tính năng theo dõi khuôn mặt không tạo ra kết quả hữu ích. Vì lý do này, và để cải thiện tốc độ phát hiện, đừng bật cả tính năng phát hiện đường viền và theo dõi khuôn mặt.

Ví dụ:

Kotlin

// High-accuracy landmark detection and face classification
val highAccuracyOpts = FaceDetectorOptions.Builder()
        .setPerformanceMode(FaceDetectorOptions.PERFORMANCE_MODE_ACCURATE)
        .setLandmarkMode(FaceDetectorOptions.LANDMARK_MODE_ALL)
        .setClassificationMode(FaceDetectorOptions.CLASSIFICATION_MODE_ALL)
        .build()

// Real-time contour detection
val realTimeOpts = FaceDetectorOptions.Builder()
        .setContourMode(FaceDetectorOptions.CONTOUR_MODE_ALL)
        .build()

Java

// High-accuracy landmark detection and face classification
FaceDetectorOptions highAccuracyOpts =
        new FaceDetectorOptions.Builder()
                .setPerformanceMode(FaceDetectorOptions.PERFORMANCE_MODE_ACCURATE)
                .setLandmarkMode(FaceDetectorOptions.LANDMARK_MODE_ALL)
                .setClassificationMode(FaceDetectorOptions.CLASSIFICATION_MODE_ALL)
                .build();

// Real-time contour detection
FaceDetectorOptions realTimeOpts =
        new FaceDetectorOptions.Builder()
                .setContourMode(FaceDetectorOptions.CONTOUR_MODE_ALL)
                .build();

2. Chuẩn bị hình ảnh nhập

Để phát hiện khuôn mặt trong một hình ảnh, hãy tạo một đối tượng InputImage từ Bitmap, media.Image, ByteBuffer, mảng byte hoặc một tệp trên thiết bị. Sau đó, chuyển đối tượng InputImage sang phương thức process của FaceDetector\39;.

Để phát hiện khuôn mặt, bạn nên sử dụng hình ảnh có kích thước tối thiểu là 480x360 pixel. Nếu bạn phát hiện khuôn mặt theo thời gian thực, thì việc chụp khung hình ở độ phân giải tối thiểu này có thể giúp giảm độ trễ.

Bạn có thể tạo một đối tượng InputImage từ nhiều nguồn, mỗi nguồn được giải thích ở bên dưới.

Sử dụng media.Image

Để tạo một đối tượng InputImage từ đối tượng media.Image, chẳng hạn như khi chụp ảnh từ máy ảnh của thiết bị, hãy truyền đối tượng media.Image và chế độ xoay của hình ảnh đến InputImage.fromMediaImage().

Nếu bạn sử dụng thư viện CameraX, thì các lớp OnImageCapturedListenerImageAnalysis.Analyzer sẽ tính toán giá trị xoay vòng cho bạn.

Kotlin

private class YourImageAnalyzer : ImageAnalysis.Analyzer {

    override fun analyze(imageProxy: ImageProxy) {
        val mediaImage = imageProxy.image
        if (mediaImage != null) {
            val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees)
            // Pass image to an ML Kit Vision API
            // ...
        }
    }
}

Java

private class YourAnalyzer implements ImageAnalysis.Analyzer {

    @Override
    public void analyze(ImageProxy imageProxy) {
        Image mediaImage = imageProxy.getImage();
        if (mediaImage != null) {
          InputImage image =
                InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees());
          // Pass image to an ML Kit Vision API
          // ...
        }
    }
}

Nếu không sử dụng thư viện máy ảnh cung cấp cho bạn mức độ xoay của hình ảnh, bạn có thể tính toán mức độ đó từ độ xoay của thiết bị và hướng của cảm biến máy ảnh trong thiết bị.

Kotlin

private val ORIENTATIONS = SparseIntArray()

init {
    ORIENTATIONS.append(Surface.ROTATION_0, 0)
    ORIENTATIONS.append(Surface.ROTATION_90, 90)
    ORIENTATIONS.append(Surface.ROTATION_180, 180)
    ORIENTATIONS.append(Surface.ROTATION_270, 270)
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
@Throws(CameraAccessException::class)
private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    val deviceRotation = activity.windowManager.defaultDisplay.rotation
    var rotationCompensation = ORIENTATIONS.get(deviceRotation)

    // Get the device's sensor orientation.
    val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager
    val sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION)!!

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360
    }
    return rotationCompensation
}

Java

private static final SparseIntArray ORIENTATIONS = new SparseIntArray();
static {
    ORIENTATIONS.append(Surface.ROTATION_0, 0);
    ORIENTATIONS.append(Surface.ROTATION_90, 90);
    ORIENTATIONS.append(Surface.ROTATION_180, 180);
    ORIENTATIONS.append(Surface.ROTATION_270, 270);
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing)
        throws CameraAccessException {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation();
    int rotationCompensation = ORIENTATIONS.get(deviceRotation);

    // Get the device's sensor orientation.
    CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE);
    int sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION);

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360;
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360;
    }
    return rotationCompensation;
}

Sau đó, hãy truyền đối tượng media.Image và giá trị độ xoay cho InputImage.fromMediaImage():

Kotlin

val image = InputImage.fromMediaImage(mediaImage, rotation)

Java

InputImage image = InputImage.fromMediaImage(mediaImage, rotation);

Sử dụng URI tệp

Để tạo một đối tượng InputImage từ URI tệp, hãy chuyển ngữ cảnh ứng dụng và URI tệp cho InputImage.fromFilePath(). Tính năng này rất hữu ích khi bạn sử dụng ý định ACTION_GET_CONTENT để nhắc người dùng chọn hình ảnh trong ứng dụng thư viện ảnh.

Kotlin

val image: InputImage
try {
    image = InputImage.fromFilePath(context, uri)
} catch (e: IOException) {
    e.printStackTrace()
}

Java

InputImage image;
try {
    image = InputImage.fromFilePath(context, uri);
} catch (IOException e) {
    e.printStackTrace();
}

Sử dụng ByteBuffer hoặc ByteArray

Để tạo một đối tượng InputImage từ ByteBuffer hoặc ByteArray, trước tiên, hãy tính độ xoay hình ảnh như mô tả trước đó cho đầu vào media.Image. Sau đó, tạo đối tượng InputImage bằng vùng đệm hoặc mảng, cùng với chiều cao, chiều rộng, định dạng mã hóa màu và độ xoay của hình ảnh:

Kotlin

val image = InputImage.fromByteBuffer(
        byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)
// Or:
val image = InputImage.fromByteArray(
        byteArray,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)

Java

InputImage image = InputImage.fromByteBuffer(byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);
// Or:
InputImage image = InputImage.fromByteArray(
        byteArray,
        /* image width */480,
        /* image height */360,
        rotation,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);

Sử dụng Bitmap

Để tạo một đối tượng InputImage từ đối tượng Bitmap, hãy khai báo sau:

Kotlin

val image = InputImage.fromBitmap(bitmap, 0)

Java

InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);

Hình ảnh này được biểu thị bằng một đối tượng Bitmap cùng với độ xoay.

3. Nhận thực thể của FaceDetector

Kotlin

val detector = FaceDetection.getClient(options)
// Or, to use the default option:
// val detector = FaceDetection.getClient();

Java

FaceDetector detector = FaceDetection.getClient(options);
// Or use the default options:
// FaceDetector detector = FaceDetection.getClient();

4. Xử lý hình ảnh

Truyền hình ảnh đến phương thức process:

Kotlin

val result = detector.process(image)
        .addOnSuccessListener { faces ->
            // Task completed successfully
            // ...
        }
        .addOnFailureListener { e ->
            // Task failed with an exception
            // ...
        }

Java

Task<List<Face>> result =
        detector.process(image)
                .addOnSuccessListener(
                        new OnSuccessListener<List<Face>>() {
                            @Override
                            public void onSuccess(List<Face> faces) {
                                // Task completed successfully
                                // ...
                            }
                        })
                .addOnFailureListener(
                        new OnFailureListener() {
                            @Override
                            public void onFailure(@NonNull Exception e) {
                                // Task failed with an exception
                                // ...
                            }
                        });

5. Nhận thông tin về các khuôn mặt được phát hiện

Nếu thao tác phát hiện khuôn mặt thành công, danh sách các đối tượng Face sẽ được chuyển đến trình nghe thành công. Mỗi đối tượng Face đại diện cho một khuôn mặt được phát hiện trong hình ảnh. Đối với mỗi khuôn mặt, bạn có thể lấy toạ độ ranh giới của hình ảnh đó trong hình ảnh nhập vào, cũng như mọi thông tin khác mà bạn đã định cấu hình trình phát hiện khuôn mặt để tìm. Ví dụ:

Kotlin

for (face in faces) {
    val bounds = face.boundingBox
    val rotY = face.headEulerAngleY // Head is rotated to the right rotY degrees
    val rotZ = face.headEulerAngleZ // Head is tilted sideways rotZ degrees

    // If landmark detection was enabled (mouth, ears, eyes, cheeks, and
    // nose available):
    val leftEar = face.getLandmark(FaceLandmark.LEFT_EAR)
    leftEar?.let {
        val leftEarPos = leftEar.position
    }

    // If contour detection was enabled:
    val leftEyeContour = face.getContour(FaceContour.LEFT_EYE)?.points
    val upperLipBottomContour = face.getContour(FaceContour.UPPER_LIP_BOTTOM)?.points

    // If classification was enabled:
    if (face.smilingProbability != null) {
        val smileProb = face.smilingProbability
    }
    if (face.rightEyeOpenProbability != null) {
        val rightEyeOpenProb = face.rightEyeOpenProbability
    }

    // If face tracking was enabled:
    if (face.trackingId != null) {
        val id = face.trackingId
    }
}

Java

for (Face face : faces) {
    Rect bounds = face.getBoundingBox();
    float rotY = face.getHeadEulerAngleY();  // Head is rotated to the right rotY degrees
    float rotZ = face.getHeadEulerAngleZ();  // Head is tilted sideways rotZ degrees

    // If landmark detection was enabled (mouth, ears, eyes, cheeks, and
    // nose available):
    FaceLandmark leftEar = face.getLandmark(FaceLandmark.LEFT_EAR);
    if (leftEar != null) {
        PointF leftEarPos = leftEar.getPosition();
    }

    // If contour detection was enabled:
    List<PointF> leftEyeContour =
            face.getContour(FaceContour.LEFT_EYE).getPoints();
    List<PointF> upperLipBottomContour =
            face.getContour(FaceContour.UPPER_LIP_BOTTOM).getPoints();

    // If classification was enabled:
    if (face.getSmilingProbability() != null) {
        float smileProb = face.getSmilingProbability();
    }
    if (face.getRightEyeOpenProbability() != null) {
        float rightEyeOpenProb = face.getRightEyeOpenProbability();
    }

    // If face tracking was enabled:
    if (face.getTrackingId() != null) {
        int id = face.getTrackingId();
    }
}

Ví dụ về các đường nét trên khuôn mặt

Khi bật tính năng phát hiện đường nét khuôn mặt, bạn sẽ nhận được danh sách các điểm cho từng đặc điểm trên khuôn mặt được phát hiện. Các điểm này đại diện cho hình dạng của tính năng. Hãy xem bài viết Khái niệm về tính năng phát hiện khuôn mặt để biết thông tin chi tiết về cách trình bày các đường nét.

Hình ảnh sau minh hoạ cách các điểm này liên kết với một khuôn mặt, nhấp vào hình ảnh để phóng to hình ảnh đó:

ví dụ về lưới đường viền khuôn mặt được phát hiện

Phát hiện khuôn mặt theo thời gian thực

Nếu bạn muốn sử dụng tính năng phát hiện khuôn mặt trong một ứng dụng theo thời gian thực, hãy làm theo các nguyên tắc sau để đạt được tốc độ khung hình tốt nhất:

  • Định cấu hình trình phát hiện khuôn mặt để sử dụng tính năng phát hiện hoặc phân loại đường nét và phát hiện khuôn mặt, nhưng không được sử dụng cả hai:

    Phát hiện đường viền
    Phát hiện đường viền
    Phân loại
    Phát hiện và phân loại đường viền
    Phát hiện đường viền và phát hiện mốc
    Phát hiện và phân loại đường viền
    Phát hiện đường viền, phát hiện mốc và phân loại

  • Bật chế độ FAST (được bật theo mặc định).

  • Hãy cân nhắc chụp ảnh ở độ phân giải thấp hơn. Tuy nhiên, bạn cũng cần lưu ý rằng bạn cần đáp ứng các yêu cầu về kích thước hình ảnh của API này.

  • Nếu bạn sử dụng API Camera hoặc camera2, hãy hạn chế các lệnh gọi đến trình phát hiện. Nếu có khung video mới trong khi trình phát hiện đang chạy, hãy thả khung hình. Hãy xem lớp VisionProcessorBase trong ứng dụng mẫu khởi động nhanh để biết ví dụ.
  • Nếu bạn sử dụng API CameraX, hãy nhớ đặt chiến lược backpressure thành giá trị mặc định ImageAnalysis.STRATEGY_KEEP_ONLY_LATEST. Việc này đảm bảo mỗi lần chỉ phân phối một hình ảnh để phân tích. Nếu nhiều hình ảnh được tạo hơn khi trình phân tích bận, các hình ảnh đó sẽ tự động bị xóa và không được đưa vào hàng đợi phân phối. Khi hình ảnh đang được phân tích bị đóng bằng cách gọi ImageImage.Closed(), hình ảnh mới nhất sẽ được phân phối.
  • Nếu bạn sử dụng đầu ra của trình phát hiện để che phủ hình ảnh trên hình ảnh nhập vào, trước tiên, hãy lấy kết quả từ Bộ công cụ máy học, sau đó kết xuất hình ảnh và lớp phủ trong một bước duy nhất. Thao tác này sẽ xuất hiện trên bề mặt màn hình chỉ một lần cho mỗi khung đầu vào. Hãy xem các lớp CameraSourcePreview GraphicOverlay trong ứng dụng mẫu khởi động nhanh để xem ví dụ.
  • Nếu bạn sử dụng API Camera2, hãy chụp ảnh ở định dạng ImageFormat.YUV_420_888. Nếu bạn sử dụng API Máy ảnh cũ, hãy chụp ảnh ở định dạng ImageFormat.NV21.