ML Kit와 Google Cloud Vision API로 ARCore가 머신러닝 파이프라인에서 캡처한 카메라 피드를 사용하여 실제 객체를 식별하고 지능형 증강 현실 환경을 만들 수 있습니다.
왼쪽 이미지는 Android용 Kotlin으로 작성된 ARCore ML Kit 샘플에서 가져옵니다. 이 샘플 앱은 머신러닝 모델을 사용하여 카메라 뷰에서 객체를 분류하고 가상 장면의 객체에 라벨을 연결합니다.
ML Kit API는 Android와 iOS 개발 모두에 사용할 수 있으며 Google Cloud Vision API에는 REST 인터페이스와 RPC 인터페이스가 모두 있으므로 Android NDK (C), iOS 또는 Unity (AR Foundation)로 빌드된 자체 앱에서 ARCore ML Kit 샘플과 동일한 결과를 얻을 수 있습니다.
구현해야 하는 패턴에 대한 개요를 보려면 ARCore를 머신러닝 모델의 입력으로 사용을 참조하세요. 그런 다음, Android NDK (C)나 iOS, Unity (AR Foundation)를 사용하여 빌드된 앱에 적용합니다.