Augmented Faces ช่วยให้แอประบุภูมิภาคต่างๆ ของใบหน้าที่ตรวจพบโดยอัตโนมัติได้ และใช้ภูมิภาคเหล่านั้นเพื่อวางซ้อนเนื้อหา เช่น พื้นผิวและโมเดล ซึ่งตรงกับรูปร่างและภูมิภาคของใบหน้าแต่ละคนได้อย่างถูกต้อง
Augmented Faces ทํางานอย่างไร
ตัวอย่างแอป AugmentedFaces จะวางซ้อนลักษณะใบหน้าของสุนัขจิ้งจอกลงในใบหน้าของผู้ใช้โดยใช้ทั้งเนื้อหาของโมเดลและพื้นผิว
แบบจําลอง 3 มิติมีหูสุนัขจิ้งจอก 2 ตัวและจมูกสุนัขจิ้งจอก กระดูกชิ้นนี้ถือเป็นกระดูกแต่ละชิ้นที่แยกกันได้ตามภูมิภาคของใบหน้าที่มันแนบอยู่
พื้นผิวประกอบด้วยอายแชโดว์ กระ และสีอื่นๆ ดังนี้
เมื่อคุณเรียกใช้แอปตัวอย่าง แอปจะเรียก API ให้ตรวจจับใบหน้าและวางซ้อนทั้งพื้นผิวและโมเดลลงบนใบหน้า
ระบุตาข่ายเพิ่ม Augmented Face
ARCore จะซ้อนทับพื้นผิวและโมเดล 3 มิติบนใบหน้าที่ตรวจพบ โดย AR จะมอบภูมิภาคที่ตรวจพบและตาข่ายเสริม ตาข่ายนี้นําเสนอใบหน้าเสมือนจริงและประกอบด้วยจุดยอดมุม ใบหน้า และตรงกลางของศีรษะของผู้ใช้ โปรดทราบว่าการวางแนวของ Mesh นั้นแตกต่างจาก Sceneform ทุกประการ
เมื่อกล้องตรวจพบใบหน้าของผู้ใช้ ARCore จะดําเนินการขั้นตอนเหล่านี้เพื่อสร้างตาข่าย Augmented, โพสท่าที่อยู่ตรงกลางและท่าทาง
โดยจะระบุท่าทางกลางและตาข่าย
- ท่าทางกลางจมูกเป็นจุดศูนย์กลางของศีรษะของผู้ใช้ (หรือที่เรียกว่ากะโหลกศีรษะ)
- ตาข่ายประกอบด้วยจุดยอดมุมหลายร้อยรูปที่ประกอบขึ้นเป็นใบหน้า และมีการกําหนดตําแหน่งให้สัมพันธ์กับตําแหน่งตรงกลาง
คลาส
AugmentedFace
ใช้ Mesh และโพสท่าที่อยู่ตรงกลางเพื่อระบุท่าทางใบหน้าของใบหน้าในใบหน้าของผู้ใช้ ภูมิภาคเหล่านี้ ได้แก่- หน้าผากซ้าย (
LEFT_FOREHEAD
) - หน้าผากขวา (
RIGHT_FOREHEAD
) - ปลายจมูก (
NOSE_TIP
)
- หน้าผากซ้าย (
องค์ประกอบเหล่านี้ ได้แก่ การโพสท่าที่ด้านหน้า ตาข่าย และบริเวณของใบหน้าประกอบกันเป็นตาข่าย Augmented Reality และ AugmentedFace
API ใช้เป็นตําแหน่งและภูมิภาคเพื่อวางเนื้อหาในแอป
ขั้นตอนถัดไป
เริ่มใช้ Augmented Faces ในแอปของคุณเอง ดูข้อมูลเพิ่มเติมได้ในหัวข้อ