Możesz korzystać z kanału kamery przechwytywanego przez ARCore w potoku uczącym się za pomocą ML Kit i interfejsu Google Cloud Vision API, aby identyfikować obiekty w świecie rzeczywistym i tworzyć inteligentne rozwiązanie w rzeczywistości rozszerzonej.
Obraz po lewej stronie pochodzi z przykładu z ARCore ML Kit, napisanego w Kotlin na Androida. Ta przykładowa aplikacja wykorzystuje model systemów uczących się do klasyfikowania obiektów w widoku kamery i dodaje etykietę do obiektu w środowisku wirtualnym.
Interfejs API ML Kit zapewnia środowisko programistyczne Androida i iOS, a interfejs Google Cloud Vision API zawiera zarówno interfejsy REST, jak i RPC, co pozwala uzyskać te same wyniki co próbka ARCore ML Kit we własnej aplikacji utworzonej na podstawie Androida NDK (C), z iOS lub Unity (AR Foundation).
W artykule Używanie ARCore jako danych wejściowych dla modeli systemów uczących się znajdziesz omówienie wzorców, które musisz wdrożyć. Następnie zastosuj je do swojej aplikacji utworzonej na Androidzie NDK (C), z iOS lub Unity (AR Foundation).