چهره های تقویت شده
با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
Augmented Faces به برنامه شما اجازه می دهد تا به طور خودکار مناطق مختلف یک چهره شناسایی شده را شناسایی کند و از آن مناطق برای پوشش دارایی هایی مانند بافت ها و مدل ها به گونه ای استفاده کند که به درستی با خطوط و مناطق یک چهره فردی مطابقت داشته باشد.
چهره های تقویت شده چگونه کار می کند؟
برنامه نمونه AugmentedFaces با استفاده از دارایی های یک مدل و یک بافت، ویژگی های صورت یک روباه را بر روی صورت کاربر می پوشاند.
![]()
مدل سه بعدی از دو گوش روباه و یک بینی روباه تشکیل شده است. هر کدام یک استخوان جداگانه است که می تواند به صورت جداگانه حرکت داده شود تا ناحیه صورت که به آن متصل است را دنبال کند:
![]()
بافت شامل سایه چشم، کک و مک و رنگ های دیگر است:
![]()
هنگامی که برنامه نمونه را اجرا می کنید، API ها را برای تشخیص چهره فراخوانی می کند و هم بافت و هم مدل ها را روی صورت می پوشاند.
شناسایی یک مش صورت تقویت شده
به منظور پوشش مناسب بافتها و مدلهای سهبعدی بر روی یک چهره شناساییشده، ARCore نواحی شناساییشده و یک شبکه صورت تقویتشده را فراهم میکند. این مش یک نمایش مجازی از صورت است و از رئوس، نواحی صورت و مرکز سر کاربر تشکیل شده است. توجه داشته باشید که جهت مش برای Sceneform متفاوت است.
![]()
هنگامی که چهره کاربر توسط دوربین شناسایی میشود، ARCore این مراحل را برای ایجاد مش صورت تقویتشده و همچنین حالتهای مرکز و ناحیه انجام میدهد:
این ژست مرکزی و یک مش صورت را مشخص می کند.
- پوز مرکزی که در پشت بینی قرار دارد، نقطه مرکزی فیزیکی سر کاربر (به عبارت دیگر، داخل جمجمه) است.
![]()
- مش صورت از صدها رئوس تشکیل شده است که صورت را تشکیل می دهند و نسبت به حالت مرکزی مشخص می شود.
![]()
کلاس AugmentedFace
از مش چهره و حالت مرکزی برای شناسایی وضعیت های ناحیه صورت روی صورت کاربر استفاده می کند. این مناطق عبارتند از:
- پیشانی چپ (
LEFT_FOREHEAD
) - پیشانی راست (
RIGHT_FOREHEAD
) - نوک بینی (
NOSE_TIP
)
این عناصر - ژست مرکزی، صورت مش و ژست های ناحیه صورت - شامل مش چهره تقویت شده است و توسط AugmentedFace
API به عنوان نقاط و مناطق موقعیت یابی برای قرار دادن دارایی ها در برنامه شما استفاده می شود.
مراحل بعدی
شروع به استفاده از چهره های افزوده در برنامه های خود کنید. برای کسب اطلاعات بیشتر، نگاه کنید به:
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2022-09-26 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2022-09-26 بهوقت ساعت هماهنگ جهانی."],[[["\u003cp\u003eAugmented Faces automatically identifies face regions to overlay assets like textures and models, realistically conforming to individual faces.\u003c/p\u003e\n"],["\u003cp\u003eIt utilizes a 3D model with movable bones (e.g., ears, nose) and a texture for features like eye shadow, freckles, etc., to augment the user's face.\u003c/p\u003e\n"],["\u003cp\u003eARCore provides an augmented face mesh, consisting of vertices, facial regions, and the head's center, for precise overlay placement.\u003c/p\u003e\n"],["\u003cp\u003eThe process involves detecting the center pose, creating a face mesh, and identifying face region poses (forehead, nose tip) for asset positioning.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can leverage Augmented Faces by creating specific assets and using the Sceneform developer guide for implementation.\u003c/p\u003e\n"]]],["Augmented Faces utilizes ARCore to detect a user's face and overlay digital assets. ARCore identifies the face's center pose and generates a face mesh composed of vertices. Using this mesh and center pose, the system determines region poses, such as the left and right forehead, and the nose tip. These elements help position assets like textures (eye shadow, freckles) and 3D models (fox ears, nose) onto the face, allowing the system to move these elements with the face, resulting in a proper fit.\n"],null,["# Augmented Faces allows your app to automatically identify different\nregions of a detected face, and use those regions to overlay assets such as\ntextures and models in a way that properly matches the contours and regions of\nan individual face.\n\nHow does Augmented Faces work?\n------------------------------\n\nThe [**AugmentedFaces**](//github.com/google-ar/sceneform-android-sdk/tree/v1.15.0/samples/augmentedfaces) sample\napp overlays the facial features of a fox onto a user's face using both the\nassets of a model and a texture.\n\nThe 3D model consists of two fox ears and a fox nose. Each is a separate [bone](//en.wikipedia.org/wiki/Skeletal_animation)\nthat can be moved individually to follow the facial region they are attached to:\n\nThe texture consists of eye shadow, freckles, and other coloring:\n\nWhen you run the sample app, it calls APIs to detect a face and overlays both the texture and the models onto the face.\n\nIdentifying an augmented face mesh\n----------------------------------\n\nIn order to properly overlay textures and 3D models on a detected face, ARCore\nprovides detected regions and an *augmented face mesh* . This mesh\nis a virtual representation of the face, and consists of the vertices, facial\nregions, and the center of the user's head. Note that the\n[orientation](/sceneform/develop/augmented-faces/developer-guide#face_mesh_orientation)\nof the mesh is different for Sceneform.\n\nWhen a user's face is detected by the camera, ARCore performs these steps to\ngenerate the augmented face mesh, as well as center and region poses:\n\n1. It identifies the *center pose* and a *face mesh*.\n\n - The center pose, located behind the nose, is the physical center point of the user's head (in other words, inside the skull).\n\n - The face mesh consists of hundreds of vertices that make up the face, and is defined relative to the center pose. \n\n2. The `AugmentedFace` class uses the face mesh and center pose to identify\n *face region poses* on the user's face. These regions are:\n\n - Left forehead (`LEFT_FOREHEAD`)\n - Right forehead (`RIGHT_FOREHEAD`)\n - Tip of the nose (`NOSE_TIP`)\n\nThese elements -- the center pose, face mesh, and face region poses -- comprise\nthe augmented face mesh and are used by `AugmentedFace` APIs as positioning\npoints and regions to place the assets in your app.\n\nNext steps\n----------\n\nStart using Augmented Faces in your own apps. To learn more, see:\n\n- [Creating assets for Augmented Faces](/sceneform/develop/augmented-faces/creating-assets)\n\n- [Augmented Faces developer guide for Sceneform](/sceneform/develop/augmented-faces/developer-guide)"]]