Ce document décrit la procédure à suivre pour migrer vos projets Google Mobile Vision (GMV) vers ML Kit sur iOS
Prérequis
Avant de commencer à migrer votre code, vérifiez que vous remplissez les conditions suivantes:
- ML Kit est compatible avec Xcode 13.2.1 ou version ultérieure.
- ML Kit est compatible avec iOS version 10 ou ultérieure.
- ML Kit n'est pas compatible avec les architectures 32 bits (i386 et armv7). ML Kit est compatible avec les architectures 64 bits (x86_64 et arm64).
Mettre à jour CocoaPods
Mettez à jour les dépendances des CocoaPods iOS ML Kit dans le Podfile de votre application:
API | Pod VMB | Pod ML Kit |
---|---|---|
Lecture de codes-barres | GoogleMobileVision/BarcodeDetector |
GoogleMLKit/BarcodeScanning |
Détection de visages | GoogleMobileVision/FaceDetector |
GoogleMLKit/FaceDetection |
Reconnaissance de texte | GoogleMobileVision/TextDetector |
GoogleMLKit/TextRecognition |
Modifications générales de l'API
Ces modifications s'appliquent à toutes les API:
- Les API d'inférence de GMV utilisent
UIImage
ouCMSampleBufferRef
comme entrée. ML Kit les encapsule dans uneMLKVisionImage
et les reçoit en entrée. - La VMB utilise
NSDictionary
pour transmettre différentes options de détecteur. ML Kit utilise des classes d'options dédiées à cette fin. - La VMB transmet le type de détecteur à la classe
GMVDetector
unique lorsqu'elle crée un détecteur. ML Kit utilise des classes dédiées pour créer des instances distinctes de détecteur, d'analyse et de reconnaissance. - Les API de la VMB ne sont compatibles qu'avec la détection synchrone. Les API d'inférence de ML Kit peuvent être appelées de manière synchrone et asynchrone.
- GMV étend
AVCaptureVideoDataOutput
et fournit un framework multi-détecteurs permettant d'effectuer plusieurs détections en même temps. ML Kit ne fournit pas de tels mécanismes, mais le développeur peut implémenter la même fonctionnalité s'il le souhaite.
Modifications spécifiques aux API
Cette section décrit les classes et les méthodes GMV et ML Kit correspondant à chaque API Vision, et explique comment initialiser l'API.
FaceDetector
Recodez l'initialisation comme indiqué dans cet exemple:
GMV
NSDictionary *options = @{ GMVDetectorFaceMode : @(GMVDetectorFaceAccurateMode), GMVDetectorFaceClassificationType : @(GMVDetectorFaceClassificationAll), GMVDetectorFaceLandmarkType : @(GMVDetectorFaceLandmarkAll) }; GMVDetector *faceDetector = [GMVDetector detectorOfType:GMVDetectorTypeFace options:options];
ML Kit
MLKFaceDetectorOptions *options = [[MLKFaceDetectorOptions alloc] init]; options.performanceMode = MLKFaceDetectorPerformanceModeAccurate; options.classificationMode = MLKFaceDetectorClassificationModeAll; options.landmarkMode = MLKFaceDetectorLandmarkModeAll; MLKFaceDetector *faceDetector = [MLKFaceDetector faceDetectorWithOptions:options];
GMVDetector
comporte deux
différentes API de détection. Ces deux opérations sont synchrones:
- (nullable NSArray<__kindof GMVFeature *> *) featuresInImage:(UIImage *)image options:(nullable NSDictionary *)options; - (nullable NSArray<__kindof GMVFeature *> *) featuresInBuffer:(CMSampleBufferRef)sampleBuffer options:(nullable NSDictionary *)options;
Remplacez GMVDetector
par MLKFaceDetector
.
L'API d'inférence peut être appelée de manière synchrone ou asynchrone.
Synchrone
- (nullable NSArray<MLKFace *> *) resultsInImage:(MLKVisionImage *)image error:(NSError **)error;
Asynchrone
- (void)processImage:(MLKVisionImage *)image Completion: (MLKFaceDetectionCallback)completion NS_SWIFT_NAME(process(_:completion:));
Modifiez les classes, méthodes et noms suivants:
BarcodeDetector
Recodez l'initialisation comme indiqué dans cet exemple:
GMV
NSDictionary *options = @{ GMVDetectorBarcodeFormats : @(GMVDetectorBarcodeFormatCode128 | GMVDetectorBarcodeFormatQRCode) }; GMVDetector *barcodeDetector = [GMVDetector detectorOfType:GMVDetectorTypeBarcode options:options];
ML Kit
MLKBarcodeScannerOptions *options = [[MLKBarcodeScannerOptions alloc] init]; options.formats = MLKBarcodeFormatCode128 | MLKBarcodeFormatQRCode; MLKBarcodeScanner *barcodeScanner = [MLKBarcodeScanner barcodeScannerWithOptions:options];
GMVDetector
possède deux API de détection différentes. Ces deux opérations sont synchrones:
- (nullable NSArray<__kindof GMVFeature *> *) featuresInImage:(UIImage *)image options:(nullable NSDictionary *)options; - (nullable NSArray<__kindof GMVFeature *> *) featuresInBuffer:(CMSampleBufferRef)sampleBuffer options:(nullable NSDictionary *)options;
Remplacer GMVDetector
par
MLKBarcodeScanner
L'API d'inférence peut être appelée de manière synchrone ou asynchrone.
Synchrone
- (nullable NSArray<MLKBarcode *> *) resultsInImage:(MLKVisionImage *)image error:(NSError **)error;
Asynchrone
- (void)processImage:(MLKVisionImage *)image Completion: (MLKBarcodeScanningCallback)completion NS_SWIFT_NAME(process(_:completion:));
Modifiez les classes, méthodes et noms suivants:
TextRecognition
Recodez l'initialisation comme indiqué dans cet exemple:
GMV
GMVDetector *textDetector = [GMVDetector detectorOfType:GMVDetectorTypeText options:nil];
ML Kit
MLKTextRecognizer *textRecognizer = [MLKTextRecognizer textRecognizer];
GMVDetector
comporte deux
différentes API de détection. Ces deux opérations sont synchrones:
- (nullable NSArray<__kindof GMVFeature *> *) featuresInImage:(UIImage *)image options:(nullable NSDictionary *)options; - (nullable NSArray<__kindof GMVFeature *> *) featuresInBuffer:(CMSampleBufferRef)sampleBuffer options:(nullable NSDictionary *)options;
Remplacer GMVDetector
par
MLKTextRecognizer
L'API d'inférence peut être appelée de manière synchrone ou asynchrone.
Synchrone
- (nullable MLKText *) resultsInImage:(MLKVisionImage *)image error:(NSError **)error;
Asynchrone
- (void)processImage:(MLKVisionImage *)image Completion: (MLKTextRecognitionCallback)completion NS_SWIFT_NAME(process(_:completion:));
Modifiez les classes, méthodes et noms suivants:
GMV | ML Kit |
---|---|
GMVDetectorImageOrientation
|
MLKVisionImage.orientation
|
GMVTextBlockFeature
|
MLKTextBlock
|
GMVTextElementFeature
|
MLKTextElement
|
GMVTextLineFeature
|
MLKTextLine
|
Obtenir de l'aide
En cas de problème, consultez la page de la communauté où nous décrivons les différents moyens de nous contacter.