在 Android 上使用 AutoML 训练的模型给图片加标签
<ph type="x-smartling-placeholder">。 在您使用 AutoML Vision Edge 训练自己的模型后, 您可以在应用中使用它给图片加标签。 您可以通过以下两种方式集成通过 AutoML Vision Edge 训练的模型: 只需将模型放入应用的资源文件夹中,即可对模型进行捆绑;也可以 从 Firebase 动态下载。模型捆绑选项 | |
---|---|
捆绑在您的应用中 |
|
使用 Firebase 托管 |
|
试试看
- 您可以试用示例应用, 查看此 API 的用法示例。
准备工作
1. 请务必在项目级build.gradle
文件中的 buildscript
和 allprojects
部分添加 Google 的 Maven 代码库。2.将 Android 版机器学习套件库的依赖项添加到模块的 应用级 Gradle 文件,通常为
app/build.gradle
:
如需将模型与应用捆绑,请执行以下操作:
dependencies { // ... // Image labeling feature with bundled automl model implementation 'com.google.mlkit:image-labeling-automl:16.2.1' }如需从 Firebase 动态下载模型,请添加
linkFirebase
依赖项:
dependencies { // ... // Image labeling feature with automl model downloaded // from firebase implementation 'com.google.mlkit:image-labeling-automl:16.2.1' implementation 'com.google.mlkit:linkfirebase:16.0.1' }3.如果您想下载模型,请确保 将 Firebase 添加到您的 Android 项目, (如果您尚未这样做)。捆绑模型时不需要这样做。
1. 加载模型
配置本地模型来源
如需将模型与您的应用捆绑在一起,请执行以下操作:1.从您下载的 zip 归档文件中提取模型及其元数据 Firebase 控制台我们建议您使用已下载的文件 不得修改文件(包括文件名)。
2.将模型及其元数据文件添加到应用软件包中:
a.如果您的项目中没有资源文件夹,请通过执行以下操作创建一个 右键点击
app/
文件夹,然后点击
新建 >文件夹 >“Assets”文件夹。b.在 assets 文件夹下创建一个子文件夹以包含该模型 文件。
c.复制文件
model.tflite
、dict.txt
和
manifest.json
复制到子文件夹(这三个文件都必须位于
同一个文件夹中)。3.将以下内容添加到应用的
build.gradle
文件中,以确保
Gradle 在构建应用时不会压缩模型文件:
android { // ... aaptOptions { noCompress "tflite" } }模型文件将包含在应用软件包中,并提供给机器学习套件使用 原始资源
注意:从 Android Gradle 插件 4.1 版开始,.tflite 将 已默认添加到 noCompress 列表,而不再需要上述操作。
4.创建
LocalModel
对象,指定模型清单的路径
文件:
Kotlin
val localModel = AutoMLImageLabelerLocalModel.Builder() .setAssetFilePath("manifest.json") // or .setAbsoluteFilePath(absolute file path to manifest file) .build()
Java
AutoMLImageLabelerLocalModel localModel = new AutoMLImageLabelerLocalModel.Builder() .setAssetFilePath("manifest.json") // or .setAbsoluteFilePath(absolute file path to manifest file) .build();
配置 Firebase 托管的模型来源
如需使用远程托管的模型,请创建一个 RemoteModel
对象,
指定您在发布模型时为其分配的名称:
Kotlin
// Specify the name you assigned in the Firebase console. val remoteModel = AutoMLImageLabelerRemoteModel.Builder("your_model_name").build()
Java
// Specify the name you assigned in the Firebase console. AutoMLImageLabelerRemoteModel remoteModel = new AutoMLImageLabelerRemoteModel.Builder("your_model_name").build();
然后,启动模型下载任务,指定 来允许下载如果该设备上没有该型号,或者版本较新的 模型可用时,任务会异步下载 模型:
Kotlin
val downloadConditions = DownloadConditions.Builder() .requireWifi() .build() RemoteModelManager.getInstance().download(remoteModel, downloadConditions) .addOnSuccessListener { // Success. }
Java
DownloadConditions downloadConditions = new DownloadConditions.Builder() .requireWifi() .build(); RemoteModelManager.getInstance().download(remoteModel, downloadConditions) .addOnSuccessListener(new OnSuccessListener() { @Override public void onSuccess(@NonNull Task task) { // Success. } });
许多应用会通过其初始化代码启动下载任务,但 可以在需要使用该模型之前随时执行此操作。
根据模型创建图片标记器
配置模型来源后,根据模型来源创建 ImageLabeler
对象
。
如果您只有本地捆绑的模型,只需根据
AutoMLImageLabelerLocalModel
对象并配置置信度分数
阈值(请参阅评估模型):
Kotlin
val autoMLImageLabelerOptions = AutoMLImageLabelerOptions.Builder(localModel) .setConfidenceThreshold(0) // Evaluate your model in the Firebase console // to determine an appropriate value. .build() val labeler = ImageLabeling.getClient(autoMLImageLabelerOptions)
Java
AutoMLImageLabelerOptions autoMLImageLabelerOptions = new AutoMLImageLabelerOptions.Builder(localModel) .setConfidenceThreshold(0.0f) // Evaluate your model in the Firebase console // to determine an appropriate value. .build(); ImageLabeler labeler = ImageLabeling.getClient(autoMLImageLabelerOptions)
如果您有远程托管的模型,则必须检查该模型
下载应用您可以检查模型下载的状态
使用模型管理器的 isModelDownloaded()
方法完成任务。
虽然您只需在运行标签添加者之前确认这一点, 同时具有远程托管的模型和本地捆绑的模型, 在实例化图片标记器时执行这项检查: 从远程模型添加标签(如果已下载), 模型。
Kotlin
RemoteModelManager.getInstance().isModelDownloaded(remoteModel) .addOnSuccessListener { isDownloaded -> val optionsBuilder = if (isDownloaded) { AutoMLImageLabelerOptions.Builder(remoteModel) } else { AutoMLImageLabelerOptions.Builder(localModel) } // Evaluate your model in the Firebase console to determine an appropriate threshold. val options = optionsBuilder.setConfidenceThreshold(0.0f).build() val labeler = ImageLabeling.getClient(options) }
Java
RemoteModelManager.getInstance().isModelDownloaded(remoteModel) .addOnSuccessListener(new OnSuccessListener() { @Override public void onSuccess(Boolean isDownloaded) { AutoMLImageLabelerOptions.Builder optionsBuilder; if (isDownloaded) { optionsBuilder = new AutoMLImageLabelerOptions.Builder(remoteModel); } else { optionsBuilder = new AutoMLImageLabelerOptions.Builder(localModel); } AutoMLImageLabelerOptions options = optionsBuilder .setConfidenceThreshold(0.0f) // Evaluate your model in the Firebase console // to determine an appropriate threshold. .build(); ImageLabeler labeler = ImageLabeling.getClient(options); } });
如果您只有远程托管的模型,则应停用与模型相关的
部分功能(如灰显或隐藏界面的某一部分),
您可以确认模型已下载。为此,你可以将一个监听器附加到
添加到模型管理器的 download()
方法:
Kotlin
RemoteModelManager.getInstance().download(remoteModel, conditions) .addOnSuccessListener { // Download complete. Depending on your app, you could enable the ML // feature, or switch from the local model to the remote model, etc. }
Java
RemoteModelManager.getInstance().download(remoteModel, conditions) .addOnSuccessListener(new OnSuccessListener() { @Override public void onSuccess(Void v) { // Download complete. Depending on your app, you could enable // the ML feature, or switch from the local model to the remote // model, etc. } });
2. 准备输入图片
然后,为您想要加标签的每张图片创建一个 InputImage
对象。使用 Bitmap
时,图片标记器的运行速度最快
或者,如果您使用 Camera2 API,则会创建 YUV_420_888 media.Image
,它们是
。
您可以创建 InputImage
对象,下文对每种方法进行了说明。
使用 media.Image
如需创建 InputImage
,请执行以下操作:
对象(例如从 media.Image
对象中捕获图片时)
请传递 media.Image
对象和图片的
旋转为 InputImage.fromMediaImage()
。
如果您使用
<ph type="x-smartling-placeholder"></ph>
CameraX 库、OnImageCapturedListener
和
ImageAnalysis.Analyzer
类计算旋转角度值
。
Kotlin
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
Java
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
如果您不使用可提供图片旋转角度的相机库, 可以根据设备的旋转角度和镜头方向来计算 设备传感器:
Kotlin
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
Java
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
然后,传递 media.Image
对象和
将旋转角度值设为 InputImage.fromMediaImage()
:
Kotlin
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
使用文件 URI
如需创建 InputImage
,请执行以下操作:
对象时,请将应用上下文和文件 URI 传递给
InputImage.fromFilePath()
。在需要满足特定条件时
使用 ACTION_GET_CONTENT
intent 提示用户进行选择
从图库应用中获取图片
Kotlin
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
使用 ByteBuffer
或 ByteArray
如需创建 InputImage
,请执行以下操作:
对象ByteBuffer
或ByteArray
时,首先计算图像
旋转角度。media.Image
然后,创建带有缓冲区或数组的 InputImage
对象以及图片的
高度、宽度、颜色编码格式和旋转角度:
Kotlin
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
Java
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
使用 Bitmap
如需创建 InputImage
,请执行以下操作:
对象时,请进行以下声明:Bitmap
Kotlin
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
图片由 Bitmap
对象和旋转角度表示。
3. 运行图片标记器
如需给图片中的对象加标签,请将image
对象传递给 ImageLabeler
的
process()
方法。
Kotlin
labeler.process(image) .addOnSuccessListener { labels -> // Task completed successfully // ... } .addOnFailureListener { e -> // Task failed with an exception // ... }
Java
labeler.process(image) .addOnSuccessListener(new OnSuccessListener<List<ImageLabel>>() { @Override public void onSuccess(List<ImageLabel> labels) { // Task completed successfully // ... } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } });
4. 获取已加标签的对象的相关信息
如果为图片加标签操作成功,系统会显示 ImageLabel
列表
对象传递给成功监听器。每个 ImageLabel
对象代表
图片标注内容。您可以获取每个标签的文本
说明、匹配的置信度分数和匹配的索引。
例如:
Kotlin
for (label in labels) { val text = label.text val confidence = label.confidence val index = label.index }
Java
for (ImageLabel label : labels) { String text = label.getText(); float confidence = label.getConfidence(); int index = label.getIndex(); }
提高实时性能的相关提示
如果要在实时应用中给图片加标签,请遵循以下做法 实现最佳帧速率的准则:
- 如果您使用
Camera
或camera2
API、 限制对图片标记器的调用。如果新视频 当图片标记器运行时,如果有帧可用,请丢弃该帧。请参阅 <ph type="x-smartling-placeholder"></ph>VisionProcessorBase
类。 - 如果您使用
CameraX
API, 确保将 backpressure 策略设置为默认值ImageAnalysis.STRATEGY_KEEP_ONLY_LATEST
。 这可保证一次只传送一张图片进行分析。如果有更多图片 在分析器繁忙时生成,它们会被自动丢弃,不会排队等待 。通过调用 ImageProxy.close(),将传递下一张图片。 - 如果您使用图像标记器的输出在
输入图片,首先从机器学习套件获取结果,
和叠加层。这会渲染到
每个输入帧只执行一次。请参阅
<ph type="x-smartling-placeholder"></ph>
CameraSourcePreview
和GraphicOverlay
类。 - 如果您使用 Camera2 API,请使用
ImageFormat.YUV_420_888
格式。如果您使用的是旧版 Camera API,请使用ImageFormat.NV21
格式。