Migração para iOS

Pré-requisitos

Antes de iniciar a migração do seu código, verifique se você atende a estes requisitos:

  • O Kit de ML oferece suporte ao Xcode 13.2.1 ou mais recente.
  • O Kit de ML é compatível com o iOS versão 10 ou mais recente.
  • O Kit de ML não é compatível com arquiteturas de 32 bits (i386 e armv7). O Kit de ML é compatível com arquiteturas de 64 bits (x86_64 e arm64).
  • A biblioteca do Kit de ML é fornecida apenas como cocoapods. Não é possível misturar frameworks e cocoapods. Portanto, para usar essa biblioteca, você precisa primeiro migrar para usar o cocoapods.

Atualizar o Cocoapods

Atualize as dependências dos cocoapods para iOS do Kit de ML no Podfile do app:

APINomes antigos dos conjuntosNovos nomes de pods
Leitura de código de barras Firebase/MLVision
Firebase/MLVisionBarcodeModel
GoogleMLKit/Leitura de código de barras
Detecção facial Firebase/MLVision
Firebase/MLVisionFaceModel
GoogleMLKit/FaceDetection
Marcação de imagens Firebase/MLVision
Firebase/MLVisionLabelModel
GoogleMLKit/ImageLabeling
Detecção e rastreamento de objetos Firebase/MLVisionObjectDetection GoogleMLKit/ObjectDetection
Reconhecimento de texto Firebase/MLVision
Firebase/MLVisionTextModel
GoogleMLKit/TextRecognition
Rotulagem de imagens do AutoML (modelo agrupado) Firebase/MLVisionAutoML GoogleMLKit/ImageLabelingCustom
Rotulagem de imagens do AutoML (download do modelo no Firebase) Firebase/MLVisionAutoML GoogleMLKit/ImageLabelingCustom
GoogleMLKit/LinkFirebase
ID do idioma Firebase/MLNaturalLanguage
Firebase/MLNLLanguageID
GoogleMLKit/LanguageID
Resposta inteligente Firebase/MLNaturalLanguage
Firebase/MLNLSmartReply
GoogleMLKit/SmartReply
Traduzir Firebase/MLNaturalLanguage
Firebase/MLNLTradutor
GoogleMLKit/Tradutor

Atualizar nomes de classes, tipos enumerados e tipos

Em geral, classes , tipos enumerados e tipos precisam ser renomeados da seguinte maneira:

  • Swift: remover o prefixo Vision dos nomes de classes e tipos enumerados
  • Objective-C: substituir o nome da classe FIRVision e FIR e os prefixos de enumeração por MLK

Esta regra geral não se aplica a alguns nomes e tipos de classe:

Swift

Classe ou tipo antigoNova classe ou tipo
AutoMLLocalModel LocalModel
AutoMLRemoteModel CustomRemoteModel
VisionBarcodeDetectionCallback BarcodeScanningCallback
VisionBarcodeDetector BarcodeScanner
VisionBarcodeDetectorOptions BarcodeScannerOptions
VisionImage VisionImage (sem alterações)
VisionPoint VisionPoint (sem alterações)
VisionOnDeviceAutoMLImageLabelerOptions CustomImageLabelerOptions
VisionOnDeviceImageLabelerOptions ImageLabelerOptions

Objective-C

Classe ou tipo antigoNova classe ou tipo
FIRAutoMLLocalModel MLKLocalModel
FIRAutoMLRemoteModel MLKCustomRemoteModel
FIRVisionBarcodeDetectionCallback MLKBarcodeScanningCallback
FIRVisionBarcodeDetector MLKBarcodeScanner
FIRVisionBarcodeDetectorOptions MLKBarcodeScannerOptions
FIRVisionImage MLKVisionImage
FIRVisionOnDeviceAutoMLImageLabelerOptions MLKCustomImageLabelerOptions
FIRVisionOnDeviceImageLabelerOptions MLKImageLabelerOptions
FIRVisionPoint MLKVisionPoint

Objective-C

Atualizar nomes de métodos

Atualize os nomes dos métodos de acordo com estas regras:

  • As classes de ponto de entrada do domínio (Vision, NaturalLanguage) não existem mais. Elas foram substituídas por classes específicas de tarefas. Substitua as chamadas para os vários métodos de fábrica a fim de conseguir detectores com chamadas diretas para o método de fábrica de cada detector.

  • A classe VisionImageMetadata foi removida, assim como o tipo enumerado VisionDetectorImageOrientation. Use a propriedade orientation de VisionImage para especificar a orientação de exibição de uma imagem.

  • O método onDeviceTextRecognizer que recebe uma nova instância TextRecognizer foi renomeado como textRecognizer.

  • A propriedade de confiança foi removida das classes de resultados de reconhecimento de texto, incluindo TextElement, TextLine e TextBlock.

  • Os métodos onDeviceImageLabeler e onDeviceImageLabeler(options:) para receber uma nova instância de ImageLabeler foram mesclados e renomeados como imageLabeler(options:).

  • O método objectDetector para acessar uma nova instância de ObjectDetector foi removido. Em vez disso, use objectDetector(options:).

  • A propriedade type foi removida de ImageLabeler e a propriedade entityID foi removida da classe de resultado da rotulagem de imagens, ImageLabel.

  • A API de leitura de código de barras detect(in _:, completion:) foi renomeada como process(_:, completion:) para ser consistente com outras APIs de visão

  • As APIs Natural Language agora usam o termo "tag de idioma" (conforme definido pelo padrão BCP-47, em inglês) em vez de "código do idioma".

  • TranslateLanguage agora usa nomes legíveis (como .english) para as constantes em vez de tags de idioma ( como .en).

Aqui estão alguns exemplos de métodos Swift novos e antigos:

Antigo

let options = VisionOnDeviceImageLabelerOptions()
options.confidenceThreshold = 0.75
let labeler = Vision.vision().onDeviceImageLabeler(options: options)

let detector = Vision.vision().faceDetector(options: options)

let localModel = AutoMLLocalModel(manifestPath: "automl/manifest.json")
let options = VisionOnDeviceAutoMLImageLabelerOptions(localModel: localModel)
options.confidenceThreshold = 0.75
let labeler = vision.onDeviceAutoMLImageLabeler(options: options)

let detector = Vision.vision().objectDetector()
    

Novo

let options = ImageLabelerOptions()
options.confidenceThreshold = NSNumber(value:0.75)
let labeler = ImageLabeler.imageLabeler(options: options)

let detector = FaceDetector.faceDetector(options: options)

let localModel = LocalModel(manifestPath: "automl/manifest.json")
let options = CustomImageLabelerOptions(localModel: localModel)
options.confidenceThreshold = NSNumber(value:0.75)
let labeler = ImageLabeler.imageLabeler(options: options)

let detector = ObjectDetector.objectDetector(options: ObjectDetectorOptions())
    

Aqui estão alguns exemplos de métodos Objective-C antigos e novos:

Antigo

FIRVisionOnDeviceImageLabelerOptions *options = 
    [[FIRVisionOnDeviceImageLabelerOptions alloc] init];
options.confidenceThreshold = 0.75;
FIRVisionImageLabeler *labeler = 
    [[FIRVision vision] onDeviceImageLabelerWithOptions:options];

FIRVisionFaceDetector *detector =
    [[FIRVision vision] faceDetectorWithOptions: options];

FIRAutoMLLocalModel *localModel =
    [[FIRAutoMLLocalModel alloc] initWithManifestPath:@"automl/manifest.json"];
FIRVisionOnDeviceAutoMLImageLabelerOptions *options =
    [[FIRVisionOnDeviceAutoMLImageLabelerOptions alloc]
        initWithLocalModel: localModel];
options.confidenceThreshold = 0.75
FIRVisionImageLabeler *labeler =
    [[FIRVision vision] onDeviceAutoMLImageLabelerWithOptions:options];

FIRVisionObjectDetector *detector =
    [[FIRVision vision] objectDetector];
    

Novo

MLKImageLabelerOptions *options =
    [[MLKImageLabelerOptions alloc] init];
options.confidenceThreshold = @(0.75);
MLKImageLabeler *labeler =
    [MLKImageLabeler imageLabelerWithOptions:options];

MLKFaceDetector *detector =
    [MLKFaceDetector faceDetectorWithOptions:options];

MLKLocalModel *localModel =
    [[MLKLocalModel alloc]
        initWithManifestPath:@"automl/manifest.json"];
MLKCustomImageLabelerOptions *options =
    [[MLKCustomImageLabelerOptions alloc] initWithLocalModel:localModel];
options.confidenceThreshold = @(0.75)
MLKImageLabeler *labeler =
    [MLKImageLabeler imageLabelerWithOptions:options];

MLKObjectDetectorOptions *options = [[MLKObjectDetectorOptions alloc] init];
MLKObjectDetector *detector = [MLKObjectDetector objectDetectorWithOptions:options];
    

Mudanças específicas da API

Detecção e rastreamento de objetos

Se o app usa a classificação de objetos, esteja ciente de que o novo SDK mudou a maneira de retornar a categoria de classificação dos objetos detectados.

VisionObjectCategory em VisionObject é retornado como text em um objeto ObjectLabel, em vez de um número inteiro. Todas as categorias de string possíveis estão incluídas no tipo enumerado DetectedObjectLabel.

A categoria .unknown foi removida. Quando a confiança da classificação de um objeto é baixa, o classificador não retorna nenhum rótulo.

Aqui está um exemplo do código Swift antigo e novo:

Antigo

if (object.classificationCategory == .food) {
    ...
}

Novo

if let label = object.labels.first {
  if (label.text == DetectedObjectLabel.food.rawValue) {
    ...
  }
}
// or
if let label = object.labels.first {
  if (label.index == DetectedObjectLabelIndex.food.rawValue) {
    ...
  }
}

Veja aqui um exemplo do código antigo e novo do Objective-C:

Antigo

if (object.classificationCategory == FIRVisionObjectCategoryFood) {
    ...
}

Novo

if ([object.labels[0].text isEqualToString:MLKDetectedObjectLabelFood]) {
  ...
}
// or
if ([object.labels[0].index == MLKDetectedObjectLabelIndexFood]) {
  ...
}

Remover dependências do Firebase (opcional)

Esta etapa só se aplica quando estas condições são atendidas:

  • O Kit de ML do Firebase é o único componente do Firebase que você usa
  • Você só usa APIs no dispositivo
  • Você não usa a disponibilização de modelos

Se esse for o caso, remova as dependências do Firebase após a migração. Siga estas etapas:

  • Remova o arquivo de configuração do Firebase excluindo o arquivo GoogleService-Info.plist do diretório do app e do projeto Xcode.
  • Remova todos os Cocoapods do Firebase, como pod 'Firebase/Analytics', do seu Podfile.
  • Remova qualquer inicialização do FirebaseApp, como FirebaseApp.configure(), do seu código.
  • Exclua seu app do Firebase no Console do Firebase seguindo as instructions no site de suporte do Firebase.

Como buscar ajuda

Se tiver algum problema, confira nossa página da comunidade, em que descrevemos os canais disponíveis para entrar em contato conosco.