기기의 카메라를 사용하여 현실을 촬영합니다.
플랫폼별 가이드
사용자의 기기에는 카메라 (일반적으로 전면 및 후면 모두)와 가속도계와 같은 다양한 센서가 있으며, 이러한 센서는 실제 환경을 해석하기 위해 AR 앱에 데이터를 제공합니다. 카메라 자체에 깊이 센서가 있어 감지하는 타겟에 관한 범위, 크기, 기타 유용한 데이터를 결정할 수 있습니다.
AR 앱의 경우 최적의 성능을 위해 카메라를 구성합니다. 카메라 이미지 메타데이터, 프레임 버퍼링, 공유 카메라 액세스를 사용하여 성능을 조정할 수도 있습니다. 위 가이드에서는 각 플랫폼의 일부 AR 카메라 기능을 설명합니다.
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-02-28(UTC)
[null,null,["최종 업데이트: 2025-02-28(UTC)"],[[["Access comprehensive guides for configuring and optimizing camera usage in your AR applications across Android, Android NDK, Unity, and Unreal Engine platforms."],["Leverage device cameras and sensors, including depth sensors, to capture real-world data for enhanced AR experiences."],["Fine-tune camera performance by adjusting configurations, utilizing image metadata, implementing frame buffering, and managing shared camera access."],["Explore platform-specific documentation and resources to effectively integrate AR camera capabilities into your app development workflow."],["Utilize the provided links to access detailed guides on specific camera features and functionalities for each supported platform."]]],["AR applications can utilize device camera data and sensors. Key actions include configuring camera settings for optimal AR performance, accessing camera image metadata, buffering camera frames, and sharing camera access. These functionalities are detailed in platform-specific guides for Android (Kotlin/Java), Android NDK (C), Unity (AR Foundation), and Unreal Engine. Camera capabilities include detecting range, dimensions, and other data about real-world targets, which helps to interpret the real world.\n"]]