기기의 카메라를 사용하여 현실을 촬영합니다.
플랫폼별 가이드
사용자 기기에는 카메라 (일반적으로 전면 및 후면)와 다양한 센서가 있습니다.
AR 앱에 데이터를 제공하여
생각해야 합니다. 카메라 자체에 심도 센서가 있을 수도 있고
범위, 크기 및 탐지한 타겟에 대한 기타 유용한 데이터.
AR 앱의 경우 최적의 성능을 위해 카메라를 구성합니다. 그 외에
카메라 이미지 메타데이터, 프레임 버퍼링, 공유 카메라 액세스를 사용하여 조정
확인할 수 있습니다 위의 가이드에서는 Android용 AR 카메라 기능 몇 가지를
확인할 수 있습니다
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2024-08-15(UTC)
[null,null,["최종 업데이트: 2024-08-15(UTC)"],[[["Access comprehensive guides for configuring and optimizing camera usage in your AR applications across Android, Android NDK, Unity, and Unreal Engine platforms."],["Leverage device cameras and sensors, including depth sensors, to capture real-world data for enhanced AR experiences."],["Fine-tune camera performance by adjusting configurations, utilizing image metadata, implementing frame buffering, and managing shared camera access."],["Explore platform-specific documentation and resources to effectively integrate AR camera capabilities into your app development workflow."],["Utilize the provided links to access detailed guides on specific camera features and functionalities for each supported platform."]]],[]]