デバイスのカメラを使ってリアルを撮影する
プラットフォーム固有のガイド
ユーザーのデバイスには、カメラ(通常は前面と背面の両方)とさまざまなセンサー(加速度計など)があり、現実世界を解釈するためのデータを AR アプリに提供します。カメラ自体に深度センサーが搭載されている場合、検出されたターゲットについて、範囲、寸法などの有用なデータを特定できます。
AR アプリでは、パフォーマンスが最適になるようにカメラを構成します。カメラ画像メタデータ、フレーム バッファリング、共有カメラ アクセスを使用してパフォーマンスを調整することもできます。上記のガイドでは、各プラットフォームの AR カメラ機能の一部を紹介しました。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2024-11-09 UTC。
[null,null,["最終更新日 2024-11-09 UTC。"],[[["Access comprehensive guides for configuring and optimizing camera usage in your AR applications across Android, Android NDK, Unity, and Unreal Engine platforms."],["Leverage device cameras and sensors, including depth sensors, to capture real-world data for enhanced AR experiences."],["Fine-tune camera performance by adjusting configurations, utilizing image metadata, implementing frame buffering, and managing shared camera access."],["Explore platform-specific documentation and resources to effectively integrate AR camera capabilities into your app development workflow."],["Utilize the provided links to access detailed guides on specific camera features and functionalities for each supported platform."]]],[]]