Sie können den Kamerafeed, den ARCore in einer Pipeline für maschinelles Lernen erfasst, mit dem ML Kit und der Google Cloud Vision API verwenden, um Objekte in der realen Welt zu identifizieren und eine intelligente Augmented Reality-Erfahrung zu schaffen.
Das linke Bild stammt aus dem ARCore ML Kit-Beispiel, das in Kotlin für Android geschrieben wurde. In dieser Beispielanwendung wird ein Modell für maschinelles Lernen verwendet, um Objekte in der Kameraansicht zu klassifizieren und ein Label mit einem Objekt in der virtuellen Szene zu verknüpfen.
Die ML Kit API umfasst sowohl die Android- als auch die iOS-Entwicklung. Die Google Cloud Vision API bietet REST- und RPC-Schnittstellen, sodass Sie in Ihrer eigenen App, die mit Android NDK (C), mit iOS oder mit Unity (AR Foundation) entwickelt wurde, die gleichen Ergebnisse erzielen können.
Unter ARCore als Eingabe für Modelle für maschinelles Lernen verwenden finden Sie eine Übersicht über die Muster, die Sie implementieren müssen. Wenden Sie diese dann auf Ihre App an, die mit dem Android NDK (C), mit iOS oder mit Unity (AR Foundation) erstellt wurde.