기기의 카메라를 사용하여 현실을 촬영합니다.
플랫폼별 가이드
사용자 기기에는 실제 세계를 해석할 수 있도록 AR 앱에 데이터를 제공하는 가속도계와 같은 다양한 센서와 카메라 (일반적으로 전면 및 후면)가 있습니다. 카메라 자체에 깊이 센서가 있어 감지하는 대상에 대한 범위, 크기, 기타 유용한 데이터를 결정할 수 있습니다.
AR 앱의 경우 최적의 성능을 위해 카메라를 구성합니다. 카메라 이미지 메타데이터, 프레임 버퍼링, 공유 카메라 액세스를 사용하여 성능을 조정할 수도 있습니다. 위 가이드에서는 각 플랫폼의 일부 AR 카메라 기능을 설명합니다.
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2024-11-09(UTC)
[null,null,["최종 업데이트: 2024-11-09(UTC)"],[[["Access comprehensive guides for configuring and optimizing camera usage in your AR applications across Android, Android NDK, Unity, and Unreal Engine platforms."],["Leverage device cameras and sensors, including depth sensors, to capture real-world data for enhanced AR experiences."],["Fine-tune camera performance by adjusting configurations, utilizing image metadata, implementing frame buffering, and managing shared camera access."],["Explore platform-specific documentation and resources to effectively integrate AR camera capabilities into your app development workflow."],["Utilize the provided links to access detailed guides on specific camera features and functionalities for each supported platform."]]],[]]