คุณใช้ฟีดกล้องที่ ARCore บันทึกในไปป์ไลน์แมชชีนเลิร์นนิงด้วย ML Kit และ Google Cloud Vision API เพื่อระบุวัตถุในโลกจริงได้ และสร้างประสบการณ์ Augmented Reality อันชาญฉลาด
รูปภาพด้านซ้ายมาจากตัวอย่าง MLCore ML Kit ที่เขียนขึ้นใน Kotlin สําหรับ Android แอปตัวอย่างนี้ใช้โมเดลแมชชีนเลิร์นนิงในการจําแนกประเภทวัตถุในมุมมองกล้องและแนบป้ายกํากับกับวัตถุในฉากเสมือน
ML Kit API มีทั้งสําหรับการพัฒนา Android และ iOS และ Google Cloud Vision API มีทั้งอินเทอร์เฟซ REST และ RPC คุณจึงได้ผลลัพธ์เหมือนกับตัวอย่าง ARCore ML Kit ในแอปของคุณเองที่สร้างด้วย Android NDK (C) ด้วย iOS หรือด้วย Unity (AR Foundation)
โปรดดูภาพรวมของรูปแบบที่คุณต้องการนํามาใช้ในหัวข้อใช้ ARCore เป็นอินพุตสําหรับโมเดลแมชชีนเลิร์นนิง จากนั้นให้นําไปใช้กับแอปที่สร้างขึ้นด้วย Android NDK (C), ด้วย iOS หรือ Unity (AR Foundation)