Vous pouvez utiliser le flux d'appareil photo capturé par ARCore dans un pipeline de machine learning avec le ML Kit et l'API Google Cloud Vision pour identifier des objets du monde réel et créer une expérience de réalité augmentée intelligente.
L'image de gauche provient de l'exemple de kit de ML ARCore, écrit en Kotlin pour Android. Cet exemple d'application utilise un modèle de machine learning pour classer les objets présents dans la vue de la caméra et associe un libellé à l'objet de la scène virtuelle.
L'API ML Kit fournit des applications de développement Android et iOS, et l'API Google Cloud Vision est dotée d'interfaces REST et RPC. Vous pouvez ainsi obtenir les mêmes résultats que dans l'exemple de kit ARCore ML intégré à votre application développée avec Android NDK (C), avec iOS ou Unity (AR Foundation).
Pour en savoir plus sur les modèles à implémenter, consultez la section Utiliser ARCore en tant qu'entrée pour les modèles de machine learning. Appliquez-les ensuite à votre application créée avec Android NDK (C), avec iOS ou avec Unity (AR Foundation).