Funkcja ulepszonej twarzy pozwala aplikacji automatycznie rozpoznawać różne regiony wykrytej twarzy i na tej podstawie nakładać zasoby takie jak tekstury i modele w sposób zgodny z konturami i regionami poszczególnych twarzy.
Jak działają twarze rozszerzone?
Przykład aplikacji AugmentedFaces nakrywa cechy lisa na twarz użytkownika, korzystając z zasobów modelu i tekstury.
Model 3D składa się z dwóch uszu lisa i lisa. Każda z nich to oddzielna kość, którą można przesuwać w taki sposób, aby podążała za obszarem twarzy, do którego są przypisane:
Tekstura obejmuje cienie, piegi i inne kolory:
Gdy uruchomisz przykładową aplikację, będzie ona wywoływać interfejsy API, aby wykrywać twarze i nakładać na nie teksturę oraz modele.
Rozpoznawanie siatki rozszerzonej
Aby prawidłowo nakładać tekstury i modele 3D na wykrytą twarz, ARCore udostępnia wykryte regiony i siatkę opartą na ulepszonej twarzy. Siatka to wirtualny obraz twarzy, który składa się z wierzchołków, obszarów twarzy i środkowej części głowy użytkownika. Pamiętaj, że orientacja siatki jest inna w Sceneform.
Gdy kamera wykryje twarz użytkownika, ARCore wykonuje te czynności, aby wygenerować powiększoną siatkę twarzy, a także pozycję środka i pozycji regionu:
Rozpoznaje pozycję środkową i siatkę twarzy.
- Środkowa pozycja znajduje się za nosem i znajduje się bezpośrednio w środku czaszki.
- Siatka twarzy składa się z setek wierzchołków tworzących twarz i jest określana w stosunku do połowy pozycji.
Klasa
AugmentedFace
używa siatki siatki i pozycji środkowej, aby określić pozycje obszaru twarzy na twarzu użytkownika. Te regiony to:- Lewe czoło (
LEFT_FOREHEAD
) - Prawe czoło (
RIGHT_FOREHEAD
) - Końcówka nosa (
NOSE_TIP
)
- Lewe czoło (
Te elementy – centralna pozycja, siatka twarzy i lokalizacja twarzy – stanowią udoskonaloną siatkę twarzy i są używane przez interfejsy API AugmentedFace
jako pozycje i regiony zasobów do umieszczania zasobów w Twojej aplikacji.
Dalsze kroki
Zacznij korzystać z rozpoznawania twarzy w swoich aplikacjach. Więcej informacji: