Wprowadzenie do funkcji Augmented Faces

Przewodniki dotyczące poszczególnych platform

Interfejs Augmented Faces API umożliwia renderowanie zasobów na twarzach ludzkich bez konieczności użycia specjalistycznego sprzętu. Udostępnia punkty funkcji, dzięki którym aplikacja może automatycznie rozpoznawać różne obszary wykrytej twarzy. Aplikacja może potem używać tych regionów do nakładania zasobów w sposób pasujący do kontur poszczególnych twarzy.

Przypadki użycia

Wirtualna twarz to bogata oferta zastosowań, od testowania kosmetyków i akcesoriów po filtry twarzy i efekty dostępne dla znajomych. Na przykład możesz użyć modeli 3D i tekstury, aby nałożyć cechy lisa na twarz użytkownika.

Model składa się z dwóch lisów i nosa lisa. Każdy z nich stanowi osobny kość które można przesuwać pojedynczo, aby dopasować się do obszaru twarzy, do którego są dołączone.

Tekstura składa się z cienia do powiek, piegów i innych kolorów.

W czasie działania interfejs Augmented Faces API wykrywa twarz użytkownika i nakłada na nią zarówno teksturę, jak i modele.

Części twarzy rozszerzonej

Interfejs Augmented Faces API udostępnia pozycję środkową, 3 pozycje regionów i siatkę twarzy 3D.

Pozycja pośrodku

Pozycja środkowa znajduje się za nosem i znajduje się na środku głowy użytkownika. Używaj go do renderowania zasobów takich jak kapelusz na głowie.

Pozycje regionalne

Ta lokalizacja znajduje się na lewym czole, prawym czole i końcu nosa. Pozycje regionalne oznaczają ważne części twarzy użytkownika. Używaj ich do renderowania zasobów w nosie lub w pobliżu uszu.

Siatka twarzy

468-punktowa, gęsta siatka twarzy 3D umożliwia malowanie elastycznych, szczegółowych tekstur, które dokładnie dopasowują się do twarzy – na przykład podczas nakładania wirtualnych okularów za określoną część nosa. Siatka gromadzi wystarczająco szczegółowe informacje 3D, które można łatwo wyrenderować.