증강 얼굴
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
증강 얼굴은 앱이 인식된 얼굴의 여러 영역을 자동으로 식별하여 이 영역을 사용하여 개별 얼굴의 윤곽 및 영역에 올바르게 맞도록 텍스처나 모델과 같은 애셋을 오버레이합니다.
증강 얼굴은 어떻게 작동하나요?
AugmentedFaces 샘플 앱은 모델의 애셋과 텍스처를 모두 사용하여 여우의 얼굴 특징을 사용자의 얼굴에 오버레이합니다.
![]()
3D 모델은 두 개의 여우 귀와 여우 코로 구성됩니다. 각각 별도의 뼈로, 연결되어 있는 안면 영역을 따라 개별적으로 이동할 수 있습니다.
![]()
텍스처는 아이섀도, 주근깨, 기타 색상으로 구성됩니다.
![]()
샘플 앱을 실행하면 API를 호출하여 얼굴을 감지하고 텍스처와 모델을 모두 얼굴에 오버레이합니다.
증강된 얼굴 메시 식별
인식된 얼굴에 텍스처와 3D 모델을 적절하게 오버레이하기 위해 ARCore는 감지된 영역과 증강된 얼굴 메시를 제공합니다. 이 메시는 가상의 얼굴 표현으로, 꼭짓점, 얼굴 영역, 사용자 머리 중앙으로 구성됩니다. 메시의 방향은 장면에 따라 다릅니다.
![]()
카메라에서 사용자의 얼굴이 감지되면 ARCore는 다음 단계를 실행하여 증강된 얼굴 메시를 생성할 뿐만 아니라 중앙 및 영역 포즈를 생성합니다.
중심 자세와 얼굴 메시를 식별합니다.
- 코 뒤에 있는 가운데 자세는 사용자의 머리 (즉, 두개골 내부)에 있는 물리적 중심점입니다.
![]()
- 얼굴 메시는 얼굴을 구성하는 수백 개의 버텍스로 구성되며 중앙 포즈를 기준으로 정의됩니다.
![]()
AugmentedFace
클래스는 얼굴 메시와 중앙 자세를 사용하여 사용자 얼굴의 얼굴 영역 포즈를 식별합니다. 리전은 다음과 같습니다.
- 왼쪽 이마(
LEFT_FOREHEAD
)
- 오른쪽 이마 (
RIGHT_FOREHEAD
)
- 코 끝(
NOSE_TIP
)
이러한 요소(중앙 포즈, 얼굴 메시, 얼굴 영역 포즈)는 증강된 얼굴 메시를 구성하며 AugmentedFace
API에서 앱에 애셋을 배치하기 위한 위치 지정 지점과 지역으로 사용됩니다.
다음 단계
앱에서 증강 얼굴 기능을 사용해 보세요. 자세한 내용은 다음을 참고하세요.
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2022-09-26(UTC)
[null,null,["최종 업데이트: 2022-09-26(UTC)"],[[["\u003cp\u003eAugmented Faces automatically identifies face regions to overlay assets like textures and models, realistically conforming to individual faces.\u003c/p\u003e\n"],["\u003cp\u003eIt utilizes a 3D model with movable bones (e.g., ears, nose) and a texture for features like eye shadow, freckles, etc., to augment the user's face.\u003c/p\u003e\n"],["\u003cp\u003eARCore provides an augmented face mesh, consisting of vertices, facial regions, and the head's center, for precise overlay placement.\u003c/p\u003e\n"],["\u003cp\u003eThe process involves detecting the center pose, creating a face mesh, and identifying face region poses (forehead, nose tip) for asset positioning.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can leverage Augmented Faces by creating specific assets and using the Sceneform developer guide for implementation.\u003c/p\u003e\n"]]],["Augmented Faces utilizes ARCore to detect a user's face and overlay digital assets. ARCore identifies the face's center pose and generates a face mesh composed of vertices. Using this mesh and center pose, the system determines region poses, such as the left and right forehead, and the nose tip. These elements help position assets like textures (eye shadow, freckles) and 3D models (fox ears, nose) onto the face, allowing the system to move these elements with the face, resulting in a proper fit.\n"],null,["# Augmented Faces allows your app to automatically identify different\nregions of a detected face, and use those regions to overlay assets such as\ntextures and models in a way that properly matches the contours and regions of\nan individual face.\n\nHow does Augmented Faces work?\n------------------------------\n\nThe [**AugmentedFaces**](//github.com/google-ar/sceneform-android-sdk/tree/v1.15.0/samples/augmentedfaces) sample\napp overlays the facial features of a fox onto a user's face using both the\nassets of a model and a texture.\n\nThe 3D model consists of two fox ears and a fox nose. Each is a separate [bone](//en.wikipedia.org/wiki/Skeletal_animation)\nthat can be moved individually to follow the facial region they are attached to:\n\nThe texture consists of eye shadow, freckles, and other coloring:\n\nWhen you run the sample app, it calls APIs to detect a face and overlays both the texture and the models onto the face.\n\nIdentifying an augmented face mesh\n----------------------------------\n\nIn order to properly overlay textures and 3D models on a detected face, ARCore\nprovides detected regions and an *augmented face mesh* . This mesh\nis a virtual representation of the face, and consists of the vertices, facial\nregions, and the center of the user's head. Note that the\n[orientation](/sceneform/develop/augmented-faces/developer-guide#face_mesh_orientation)\nof the mesh is different for Sceneform.\n\nWhen a user's face is detected by the camera, ARCore performs these steps to\ngenerate the augmented face mesh, as well as center and region poses:\n\n1. It identifies the *center pose* and a *face mesh*.\n\n - The center pose, located behind the nose, is the physical center point of the user's head (in other words, inside the skull).\n\n - The face mesh consists of hundreds of vertices that make up the face, and is defined relative to the center pose. \n\n2. The `AugmentedFace` class uses the face mesh and center pose to identify\n *face region poses* on the user's face. These regions are:\n\n - Left forehead (`LEFT_FOREHEAD`)\n - Right forehead (`RIGHT_FOREHEAD`)\n - Tip of the nose (`NOSE_TIP`)\n\nThese elements -- the center pose, face mesh, and face region poses -- comprise\nthe augmented face mesh and are used by `AugmentedFace` APIs as positioning\npoints and regions to place the assets in your app.\n\nNext steps\n----------\n\nStart using Augmented Faces in your own apps. To learn more, see:\n\n- [Creating assets for Augmented Faces](/sceneform/develop/augmented-faces/creating-assets)\n\n- [Augmented Faces developer guide for Sceneform](/sceneform/develop/augmented-faces/developer-guide)"]]