وجوه محسّنة
تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
تتيح ميزة "الوجوه المُعزَّزة" لتطبيقك تحديد مناطق مختلفة تلقائيًا للتعرّف على الوجوه التي تم التعرّف عليها، واستخدامها للتعرّف على مواد العرض، مثل الزخارف والنماذج، بما يتوافق مع مخططات ومناطق وجه معيّن بشكل صحيح.
كيف تعمل ميزة "الوجوه المُعزَّزة"؟
يعمل نموذج AُFedFaces
على تركيب ملامح وجه ثعلب على وجه المستخدم، وذلك باستخدام كلٍّ من
مواد عرض نموذج وزخرفة.
![]()
يتألّف النموذج الثلاثي الأبعاد من أذنَي ثعلب وأنف ثعلب. ويتم تخصيص كل عظمة منفصلة
يمكن تحريكها بشكل فردي لمتابعة منطقة الوجه التي يتم ربطها بها:
![]()
تتألف الزخرفة من ظلال العيون والنمش وألوان أخرى:
![]()
وعند تشغيل نموذج التطبيق، يستدعي واجهات برمجة التطبيقات لاكتشاف وجه ويتراكب كل من النسيج والنماذج على الوجه.
تحديد شبكة الوجه المعزّزة
من أجل تراكب الزخارف والنماذج الثلاثية الأبعاد بشكل صحيح في الوجه الذي تم اكتشافه، توفّر ARCore
مناطق تم رصدها وشبكة معزّزة للوجه. هذه الشبكة المتداخلة هي تمثيل افتراضي للوجه، وتتألف من الرؤوس ومناطق الوجه ومركز رأس المستخدم. ملاحظة:
يختلف اتجاه الشبكة المتداخلة عن Sceneform.
![]()
عندما ترصد الكاميرا وجه المستخدم، تُجري ARCore الخطوات التالية لإنشاء شبكة وجه محسّنة، بالإضافة إلى وضعَي الوسط والمنطقة:
يحدِّد هذا الإعداد وضع المركز وشبكة الوجه.
- تقع النقطة الوسطى خلف الأنف وهي النقطة المركزية لرأس المستخدم (بمعنى آخر داخل الجمجمة).
![]()
- تتألف شبكة الوجه من مئات الرؤوس التي تشكّل الوجه ويتم تحديدها بالوضع الأوسط.
![]()
تستخدم الفئة AugmentedFace
شبكة الوجه والوضع الأوسط لتحديد
أوضاع المنطقة على وجه المستخدم. المناطق التالية:
- الجبين الأيسر (
LEFT_FOREHEAD
)
- الجبين الأيمن (
RIGHT_FOREHEAD
)
- طرف الأنف (
NOSE_TIP
)
وتتكوّن هذه العناصر، بما في ذلك وضعية الشبكة المتداخلة والشبكة المتعرّجة للوجه وأوضاع الوجه، من شبكة
الواقع المعزّز وتُستخدَم في واجهات برمجة تطبيقات AugmentedFace
كنقاط ومواقع للتحديد ووضع مواد العرض في تطبيقك.
الخطوات اللاحقة
يمكنك بدء استخدام ميزة "الوجوه المُعزَّزة" في تطبيقاتك. لمزيد من المعلومات، يرجى الاطّلاع على:
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2022-09-26 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2022-09-26 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eAugmented Faces automatically identifies face regions to overlay assets like textures and models, realistically conforming to individual faces.\u003c/p\u003e\n"],["\u003cp\u003eIt utilizes a 3D model with movable bones (e.g., ears, nose) and a texture for features like eye shadow, freckles, etc., to augment the user's face.\u003c/p\u003e\n"],["\u003cp\u003eARCore provides an augmented face mesh, consisting of vertices, facial regions, and the head's center, for precise overlay placement.\u003c/p\u003e\n"],["\u003cp\u003eThe process involves detecting the center pose, creating a face mesh, and identifying face region poses (forehead, nose tip) for asset positioning.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can leverage Augmented Faces by creating specific assets and using the Sceneform developer guide for implementation.\u003c/p\u003e\n"]]],["Augmented Faces utilizes ARCore to detect a user's face and overlay digital assets. ARCore identifies the face's center pose and generates a face mesh composed of vertices. Using this mesh and center pose, the system determines region poses, such as the left and right forehead, and the nose tip. These elements help position assets like textures (eye shadow, freckles) and 3D models (fox ears, nose) onto the face, allowing the system to move these elements with the face, resulting in a proper fit.\n"],null,["# Augmented Faces allows your app to automatically identify different\nregions of a detected face, and use those regions to overlay assets such as\ntextures and models in a way that properly matches the contours and regions of\nan individual face.\n\nHow does Augmented Faces work?\n------------------------------\n\nThe [**AugmentedFaces**](//github.com/google-ar/sceneform-android-sdk/tree/v1.15.0/samples/augmentedfaces) sample\napp overlays the facial features of a fox onto a user's face using both the\nassets of a model and a texture.\n\nThe 3D model consists of two fox ears and a fox nose. Each is a separate [bone](//en.wikipedia.org/wiki/Skeletal_animation)\nthat can be moved individually to follow the facial region they are attached to:\n\nThe texture consists of eye shadow, freckles, and other coloring:\n\nWhen you run the sample app, it calls APIs to detect a face and overlays both the texture and the models onto the face.\n\nIdentifying an augmented face mesh\n----------------------------------\n\nIn order to properly overlay textures and 3D models on a detected face, ARCore\nprovides detected regions and an *augmented face mesh* . This mesh\nis a virtual representation of the face, and consists of the vertices, facial\nregions, and the center of the user's head. Note that the\n[orientation](/sceneform/develop/augmented-faces/developer-guide#face_mesh_orientation)\nof the mesh is different for Sceneform.\n\nWhen a user's face is detected by the camera, ARCore performs these steps to\ngenerate the augmented face mesh, as well as center and region poses:\n\n1. It identifies the *center pose* and a *face mesh*.\n\n - The center pose, located behind the nose, is the physical center point of the user's head (in other words, inside the skull).\n\n - The face mesh consists of hundreds of vertices that make up the face, and is defined relative to the center pose. \n\n2. The `AugmentedFace` class uses the face mesh and center pose to identify\n *face region poses* on the user's face. These regions are:\n\n - Left forehead (`LEFT_FOREHEAD`)\n - Right forehead (`RIGHT_FOREHEAD`)\n - Tip of the nose (`NOSE_TIP`)\n\nThese elements -- the center pose, face mesh, and face region poses -- comprise\nthe augmented face mesh and are used by `AugmentedFace` APIs as positioning\npoints and regions to place the assets in your app.\n\nNext steps\n----------\n\nStart using Augmented Faces in your own apps. To learn more, see:\n\n- [Creating assets for Augmented Faces](/sceneform/develop/augmented-faces/creating-assets)\n\n- [Augmented Faces developer guide for Sceneform](/sceneform/develop/augmented-faces/developer-guide)"]]