Selfie benzeri görüntü ve videolardaki yüzleri algılamak için ML Kit'i kullanabilirsiniz.
Yüz örgüsü algılama API'si | |
---|---|
SDK adı | face-mesh-detection |
Uygulama | Kod ve öğeler, derleme sırasında statik olarak uygulamanıza bağlıdır. |
Uygulama boyutu etkisi | ~6,4 MB |
Performans | Çoğu cihazda gerçek zamanlı. |
Deneyin
- Örnek uygulamayı kullanarak bu API'nin örnek kullanımını inceleyin.
Başlamadan önce
Proje düzeyindeki
build.gradle
dosyanıza Google'ın Maven deposunu hem derleme komut dosyanız hem de allprojects bölümlerinizde kullanın.ML Kit yüz örgüsü algılama kitaplığı için bağımlılığı modülünün uygulama düzeyinde gradle dosyasını yükleyin (genellikle
app/build.gradle
):dependencies { // ... implementation 'com.google.mlkit:face-mesh-detection:16.0.0-beta1' }
Giriş resmi kuralları
Görüntüler, cihazın kamerasından en fazla 2 metre uzakta olmalıdır. Bu nedenle, yüzlerin yeterince büyük olduğundan emin olun. İçinde yüz ne kadar büyükse yüz örgüsü tanıma o kadar iyi olur.
Yüz, en az yarısı görünecek şekilde kameraya bakmalıdır. Yüz ile kamera arasındaki büyük bir nesne daha düşük olabilir emin olun.
Gerçek zamanlı bir uygulamada yüzleri algılamak istiyorsanız ayrıca giriş resminin genel boyutlarını göz önünde bulundurun. Daha küçük resimler daha hızlı işlenir. Böylece, daha düşük çözünürlükte görüntü yakalamak gecikmeyi azaltır. Ancak yukarıdaki doğrulukla ilgili şartları göz önünde bulundurun ve öznenin yüzü resmin olabildiğince büyük kısmını kaplar.
Yüz örgüsü dedektörünü yapılandırma
Yüz örgüsü dedektörünün varsayılan ayarlarından herhangi birini değiştirmek isterseniz bu ayarlarda FaceMeshDetectorOptions nesnesini tanımlayın. Aşağıdaki ayarları değiştirebilirsiniz:
setUseCase
BOUNDING_BOX_ONLY
: Algılanan yüz ağı için yalnızca sınırlayıcı kutu sağlar. Bu, en hızlı yüz dedektörüdür ancak kapsama alanı sınırlaması vardır(yüzler kameradan en fazla 2 metre uzakta olmalıdır).FACE_MESH
(varsayılan seçenek): Sınırlayıcı kutu ve ek yüz sağlar örgü bilgisi (468 3D nokta ve üçgen bilgisi). Şununla karşılaştırıldığında:BOUNDING_BOX_ONLY
kullanım alanı. Gecikme süresi şu tarihte yaklaşık %15 artıyor: Pixel 3
Örneğin:
Kotlin
val defaultDetector = FaceMeshDetection.getClient( FaceMeshDetectorOptions.DEFAULT_OPTIONS) val boundingBoxDetector = FaceMeshDetection.getClient( FaceMeshDetectorOptions.Builder() .setUseCase(UseCase.BOUNDING_BOX_ONLY) .build() )
Java
FaceMeshDetector defaultDetector = FaceMeshDetection.getClient( FaceMeshDetectorOptions.DEFAULT_OPTIONS); FaceMeshDetector boundingBoxDetector = FaceMeshDetection.getClient( new FaceMeshDetectorOptions.Builder() .setUseCase(UseCase.BOUNDING_BOX_ONLY) .build() );
Giriş resmini hazırlama
Bir resimdeki yüzleri algılamak için aşağıdakilerden birini kullanarak bir InputImage
nesnesi oluşturun:
Bitmap
, media.Image
, ByteBuffer
, bayt dizisi veya cihazdaki bir dosya.
Ardından InputImage
nesnesini FaceDetector
öğesinin process
yöntemine iletin.
Yüz örgüsü algılama için en az şu boyutta bir resim kullanmanız gerekir: 480x360 piksel. Yüzleri gerçek zamanlı olarak algılıyorsanız kareleri yakalayabilirsiniz. gecikmenin azaltılmasına yardımcı olabilir.
InputImage
oluşturabilirsiniz
her biri aşağıda açıklanmıştır.
media.Image
kullanarak
InputImage
oluşturmak için
media.Image
nesnesinden bir nesneden (örneğin,
cihazın kamerasını, media.Image
nesnesini ve resmin
döndürme değeri InputImage.fromMediaImage()
değerine ayarlanır.
URL'yi
CameraX kitaplığı, OnImageCapturedListener
ve
ImageAnalysis.Analyzer
sınıfları rotasyon değerini hesaplar
sizin için.
Kotlin
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
Java
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
Resmin dönme derecesini sağlayan bir kamera kitaplığı kullanmıyorsanız cihazın dönüş derecesinden ve kameranın yönünden hesaplayabilir cihazdaki sensör:
Kotlin
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
Java
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
Ardından, media.Image
nesnesini ve
döndürme derecesi değerini InputImage.fromMediaImage()
değerine ayarlayın:
Kotlin
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
Dosya URI'si kullanarak
InputImage
oluşturmak için
uygulama bağlamını ve dosya URI'sini
InputImage.fromFilePath()
. Bu özellik,
kullanıcıdan seçim yapmasını istemek için bir ACTION_GET_CONTENT
niyeti kullanın
galeri uygulamasından bir resim.
Kotlin
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
ByteBuffer
veya ByteArray
kullanarak
InputImage
oluşturmak için
bir ByteBuffer
veya ByteArray
nesnesinden alıp almayacaksanız önce resmi hesaplayın
media.Image
girişi için daha önce açıklandığı gibi dönme derecesi.
Ardından, arabellek veya diziyle InputImage
nesnesini, bu resmin
yükseklik, genişlik, renk kodlama biçimi ve döndürme derecesi:
Kotlin
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
Java
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
Bitmap
kullanarak
InputImage
oluşturmak için
Bitmap
nesnesindeki şu bildirimi yapın:
Kotlin
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
Resim, döndürme dereceleriyle birlikte bir Bitmap
nesnesiyle temsil edilir.
Resmi işleyin
Resmi process
yöntemine geçirin:
Kotlin
val result = detector.process(image) .addOnSuccessListener { result -> // Task completed successfully // … } .addOnFailureListener { e -> // Task failed with an exception // … }
Java
Task<List<FaceMesh>> result = detector.process(image) .addOnSuccessListener( new OnSuccessListener<List<FaceMesh>>() { @Override public void onSuccess(List<FaceMesh> result) { // Task completed successfully // … } }) .addOnFailureListener( new OnFailureListener() { @Override Public void onFailure(Exception e) { // Task failed with an exception // … } });
Algılanan yüz ağı hakkında bilgi al
Resimde herhangi bir yüz algılanırsa FaceMesh
nesnenin listesi aktarılır
yardımcı olur. Her FaceMesh
, şurada tespit edilen bir yüzü temsil eder:
görüntüsüdür. Her yüz ağı için sınırlayıcı koordinatlarını girişte alabilirsiniz
ve yüz ağında yapılandırdığınız diğer bilgiler
algılaması gerekir.
Kotlin
for (faceMesh in faceMeshs) { val bounds: Rect = faceMesh.boundingBox() // Gets all points val faceMeshpoints = faceMesh.allPoints for (faceMeshpoint in faceMeshpoints) { val index: Int = faceMeshpoints.index() val position = faceMeshpoint.position } // Gets triangle info val triangles: List<Triangle<FaceMeshPoint>> = faceMesh.allTriangles for (triangle in triangles) { // 3 Points connecting to each other and representing a triangle area. val connectedPoints = triangle.allPoints() } }
Java
for (FaceMesh faceMesh : faceMeshs) { Rect bounds = faceMesh.getBoundingBox(); // Gets all points List<FaceMeshPoint> faceMeshpoints = faceMesh.getAllPoints(); for (FaceMeshPoint faceMeshpoint : faceMeshpoints) { int index = faceMeshpoints.getIndex(); PointF3D position = faceMeshpoint.getPosition(); } // Gets triangle info List<Triangle<FaceMeshPoint>> triangles = faceMesh.getAllTriangles(); for (Triangle<FaceMeshPoint> triangle : triangles) { // 3 Points connecting to each other and representing a triangle area. List<FaceMeshPoint> connectedPoints = triangle.getAllPoints(); } }