Puoi utilizzare il feed della fotocamera acquisito da ARCore in una pipeline di machine learning con il ML Kit e l'API Google Cloud Vision per identificare gli oggetti del mondo reale e creare un'esperienza di realtà aumentata intelligente.
L'immagine a sinistra è ricavata dall'esempio di ARML ML, scritto in Kotlin per Android. Questa app di esempio utilizza un modello di machine learning per classificare gli oggetti nella visualizzazione della fotocamera e collega un'etichetta all'oggetto nella scena virtuale.
L'API ML Kit consente sia lo sviluppo di Android che iOS, mentre l'API Google Cloud Vision dispone di interfacce REST e RPC, per consentirti di ottenere gli stessi risultati dell'esempio di ML di ARCore nella tua app creata con Android NDK (C), con iOS o con Unity (AR Foundation).
Per una panoramica dei pattern da implementare, consulta Utilizzare ARCore come input per i modelli di machine learning. Quindi applicale alla tua app creata con Android NDK (C), con iOS o con Unity (AR Foundation).