Migração para iOS

Pré-requisitos

Antes de começar a migrar seu código, verifique se você atende a estes requisitos:

  • O Kit de ML é compatível com Xcode 13.2.1 ou versões mais recentes.
  • O Kit de ML oferece suporte para iOS versão 10 ou mais recente.
  • O Kit de ML não oferece suporte a arquiteturas de 32 bits (i386 e armv7). O Kit de ML oferece suporte a arquiteturas de 64 bits (x86_64 e arm64).
  • A biblioteca do Kit de ML é fornecida apenas como cacau pods. Como não é possível misturar estruturas e cacaupods, você precisa migrar para essa biblioteca antes de usá-la.

Atualizar o Cocoapods

Atualize as dependências dos cocoapods do kit de ML para iOS no Podfile do app:

APINomes de pods antigosNovos nomes de pods
Leitura de código de barras Firebase/MLVision
Firebase/MLVisionBarcodeModel
GoogleMLKit/BarcodeScanning
Detecção facial Firebase/MLVision
Firebase/MLVisionFaceModel
GoogleMLKit/FaceDetection
Marcação de imagens Firebase/MLVision
Firebase/MLVisionLabelModel
GoogleMLKit/ImageLabeling
Detecção e rastreamento de objetos Firebase/MLVisionObjectDetection GoogleMLKit/ObjectDetection
Reconhecimento de texto Firebase/MLVision
Firebase/MLVisionTextModel
GoogleMLKit/TextRecognition
Rotulagem de imagens do AutoML (modelo empacotado) Firebase/MLVisionAutoML GoogleMLKit/ImageLabelingCustom
Rotulagem de imagens do AutoML (download de modelos do Firebase) Firebase/MLVisionAutoML GoogleMLKit/ImageLabelingCustom
GoogleMLKit/LinkFirebase
Código do idioma Firebase/MLNaturalLanguage
Firebase/MLNLLanguageID
GoogleMLKit/LanguageID
Resposta inteligente Firebase/MLNaturalLanguage
Firebase/MLNLSmartReply
GoogleMLKit/Resposta inteligente
Tradutor Firebase/MLNaturalLanguage
Firebase/MLNLTranslate
GoogleMLKit/Tradutor

Atualizar nomes de classes, tipos enumerados e tipos

Em geral, classes , tipos enumerados e tipos precisam ser renomeados da seguinte maneira:

  • Swift: remoção do prefixo Vision dos nomes de classes e tipos enumerados.
  • Objective-C: substitua o nome das classes FIRVision e FIR e os prefixos de tipo enumerado por MLK.

Para alguns nomes e tipos de classe, esta regra geral não se aplica:

Swift

Classe ou tipo antigoNova classe ou tipo
AutoMLLocalModel LocalModel
AutoMLRemoteModel CustomRemoteModel
VisionBarcodeDetectionCallback BarcodeScanningCallback
VisionBarcodeDetector BarcodeScanner
VisionBarcodeDetectorOptions BarcodeScannerOptions
VisionImage VisionImage (sem alterações)
VisionPoint VisionPoint (sem alterações)
VisionOnDeviceAutoMLImageLabelerOptions CustomImageLabelerOptions
VisionOnDeviceImageLabelerOptions ImageLabelerOptions

Objective-C

Classe ou tipo antigoNova classe ou tipo
FIRAutoMLLocalModel MLKLocalModel
FIRAutoMLRemoteModel MLKCustomRemoteModel
FIRVisionBarcodeDetectionCallback MLKBarcodeScanningCallback
FIRVisionBarcodeDetector MLKBarcodeScanner
FIRVisionBarcodeDetectorOptions MLKBarcodeScannerOptions
FIRVisionImage MLKVisionImage
FIRVisionOnDeviceAutoMLImageLabelerOptions MLKCustomImageLabelerOptions
FIRVisionOnDeviceImageLabelerOptions MLKImageLabelerOptions
FIRVisionPoint MLKVisionPoint

Objective-C

Atualizar nomes de métodos

Atualize os nomes dos métodos de acordo com estas regras:

  • As classes de ponto de entrada do domínio (Vision, NaturalLanguage) não existem mais. Elas foram substituídas por classes específicas de tarefas. Substituir as chamadas para os vários métodos de fábrica a fim de receber detectores por chamadas diretas para o método de fábrica de cada detector.

  • A classe VisionImageMetadata foi removida, junto com o tipo enumerado VisionDetectorImageOrientation. Use a propriedade orientation de VisionImage para especificar a orientação de exibição de uma imagem.

  • O método onDeviceTextRecognizer que recebe uma nova instância TextRecognizer foi renomeado como textRecognizer.

  • A propriedade "confiança" foi removida das classes de resultado de reconhecimento de texto, incluindo TextElement, TextLine e TextBlock.

  • Os métodos onDeviceImageLabeler e onDeviceImageLabeler(options:) para receber uma nova instância de ImageLabeler foram mesclados e renomeados como imageLabeler(options:).

  • O método objectDetector para receber uma nova instância de ObjectDetector foi removido. Em vez disso, use objectDetector(options:).

  • A propriedade type foi removida de ImageLabeler, e a propriedade entityID foi removida da classe de resultado de rotulagem de imagens, ImageLabel.

  • A API de leitura de código de barras detect(in _:, completion:) foi renomeada como process(_:, completion:) para ser consistente com outras APIs de visão

  • As APIs Natural Language agora usam o termo "tag de idioma" (conforme definido pelo padrão BCP-47) em vez de "código de idioma".

  • TranslateLanguage agora usa nomes legíveis (como .english) para as constantes em vez de tags de idioma ( como .en).

Veja alguns exemplos de métodos Swift antigos e novos:

Antiga

let options = VisionOnDeviceImageLabelerOptions()
options.confidenceThreshold = 0.75
let labeler = Vision.vision().onDeviceImageLabeler(options: options)

let detector = Vision.vision().faceDetector(options: options)

let localModel = AutoMLLocalModel(manifestPath: "automl/manifest.json")
let options = VisionOnDeviceAutoMLImageLabelerOptions(localModel: localModel)
options.confidenceThreshold = 0.75
let labeler = vision.onDeviceAutoMLImageLabeler(options: options)

let detector = Vision.vision().objectDetector()
    

Novo

let options = ImageLabelerOptions()
options.confidenceThreshold = NSNumber(value:0.75)
let labeler = ImageLabeler.imageLabeler(options: options)

let detector = FaceDetector.faceDetector(options: options)

let localModel = LocalModel(manifestPath: "automl/manifest.json")
let options = CustomImageLabelerOptions(localModel: localModel)
options.confidenceThreshold = NSNumber(value:0.75)
let labeler = ImageLabeler.imageLabeler(options: options)

let detector = ObjectDetector.objectDetector(options: ObjectDetectorOptions())
    

Aqui estão alguns exemplos de métodos Objective-C novos e antigos:

Antiga

FIRVisionOnDeviceImageLabelerOptions *options = 
    [[FIRVisionOnDeviceImageLabelerOptions alloc] init];
options.confidenceThreshold = 0.75;
FIRVisionImageLabeler *labeler = 
    [[FIRVision vision] onDeviceImageLabelerWithOptions:options];

FIRVisionFaceDetector *detector =
    [[FIRVision vision] faceDetectorWithOptions: options];

FIRAutoMLLocalModel *localModel =
    [[FIRAutoMLLocalModel alloc] initWithManifestPath:@"automl/manifest.json"];
FIRVisionOnDeviceAutoMLImageLabelerOptions *options =
    [[FIRVisionOnDeviceAutoMLImageLabelerOptions alloc]
        initWithLocalModel: localModel];
options.confidenceThreshold = 0.75
FIRVisionImageLabeler *labeler =
    [[FIRVision vision] onDeviceAutoMLImageLabelerWithOptions:options];

FIRVisionObjectDetector *detector =
    [[FIRVision vision] objectDetector];
    

Novo

MLKImageLabelerOptions *options =
    [[MLKImageLabelerOptions alloc] init];
options.confidenceThreshold = @(0.75);
MLKImageLabeler *labeler =
    [MLKImageLabeler imageLabelerWithOptions:options];

MLKFaceDetector *detector =
    [MLKFaceDetector faceDetectorWithOptions:options];

MLKLocalModel *localModel =
    [[MLKLocalModel alloc]
        initWithManifestPath:@"automl/manifest.json"];
MLKCustomImageLabelerOptions *options =
    [[MLKCustomImageLabelerOptions alloc] initWithLocalModel:localModel];
options.confidenceThreshold = @(0.75)
MLKImageLabeler *labeler =
    [MLKImageLabeler imageLabelerWithOptions:options];

MLKObjectDetectorOptions *options = [[MLKObjectDetectorOptions alloc] init];
MLKObjectDetector *detector = [MLKObjectDetector objectDetectorWithOptions:options];
    

Mudanças específicas de APIs

Detecção e rastreamento de objetos

Se o app usa a classificação de objetos, saiba que o novo SDK mudou a maneira como retorna a categoria de classificação dos objetos detectados.

VisionObjectCategory em VisionObject é retornado como text em um objeto ObjectLabel, em vez de um número inteiro. Todas as categorias de string possíveis estão incluídas no tipo enumerado DetectedObjectLabel.

A categoria .unknown foi removida. Quando a confiança para classificar um objeto é baixa, o classificador não retorna nenhum rótulo.

Veja um exemplo do código Swift antigo e novo:

Antiga

if (object.classificationCategory == .food) {
    ...
}

Novo

if let label = object.labels.first {
  if (label.text == DetectedObjectLabel.food.rawValue) {
    ...
  }
}
// or
if let label = object.labels.first {
  if (label.index == DetectedObjectLabelIndex.food.rawValue) {
    ...
  }
}

Veja um exemplo do código Objective-C novo e antigo:

Antiga

if (object.classificationCategory == FIRVisionObjectCategoryFood) {
    ...
}

Novo

if ([object.labels[0].text isEqualToString:MLKDetectedObjectLabelFood]) {
  ...
}
// or
if ([object.labels[0].index == MLKDetectedObjectLabelIndexFood]) {
  ...
}

Remover dependências do Firebase (opcional)

Esta etapa só se aplica quando estas condições são atendidas:

  • O Firebase ML Kit é o único componente do Firebase que você usa
  • Você só usa APIs no dispositivo
  • Você não usa a disponibilização de modelos

Se esse for o caso, remova as dependências do Firebase após a migração. Siga estas etapas:

  • Remova o arquivo de configuração do Firebase excluindo GoogleService-Info.plist do diretório do app e do projeto Xcode.
  • Remova qualquer cacau do Firebase, como pod 'Firebase/Analytics', do seu Podfile.
  • Remova qualquer inicialização do FirebaseApp, como FirebaseApp.configure(), do seu código.
  • Exclua seu app do Firebase no Console do Firebase seguindo as instructions no site de suporte do Firebase.

Como buscar ajuda

Se você tiver algum problema, confira nossa página da comunidade, em que descrevemos os canais disponíveis para entrar em contato conosco.