Android SDK (Kotlin/Java) पर कैमरा इमेज को स्थिर करें

ARCore में अब इलेक्ट्रॉनिक इमेज स्टेबलाइज़ेशन (ईआईएस) की सुविधा काम करती है. इससे कैमरे की झलक को बेहतर तरीके से दिखाने में मदद मिलती है. ईआईएस, फ़ोन की हलचल को कम करने के लिए, जियोस्कोप का इस्तेमाल करता है. साथ ही, कैमरे के टेक्सचर की सीमाओं में, कॉम्पेंसेशन होमोग्राफ़ी मेश लागू करता है. इससे, वीडियो में होने वाली छोटी-मोटी झटके वाली हलचल कम हो जाती है. ईआईएस की सुविधा सिर्फ़ डिवाइस के पोर्ट्रेट ओरिएंटेशन में काम करती है. ARCore के 1.39.0 रिलीज़ में सभी ओरिएंटेशन काम करेंगे.

ईआईएस की सहायता के लिए क्वेरी करना और ईआईएस चालू करना

ईआईएस चालू करने के लिए, अपने सेशन को ImageStabilizationMode.EIS का इस्तेमाल करने के लिए कॉन्फ़िगर करें. अगर डिवाइस पर ईआईएस की सुविधा काम नहीं करती, तो ARCore से एक अपवाद मिलेगा.

Java

if (!session.isImageStabilizationModeSupported(Config.ImageStabilizationMode.EIS)) {
  return;
}
Config config = session.getConfig();
config.setImageStabilizationMode(Config.ImageStabilizationMode.EIS);
session.configure(config);

Kotlin

if (!session.isImageStabilizationModeSupported(Config.ImageStabilizationMode.EIS)) return
session.configure(
  session.config.apply { imageStabilizationMode = Config.ImageStabilizationMode.EIS }
)

निर्देशांक बदलना

ईआईएस चालू होने पर, रेंडरर को बदले गए डिवाइस कोऑर्डिनेट और मैच करने वाले टेक्सचर कोऑर्डिनेट का इस्तेमाल करना होगा. ये कोऑर्डिनेट, कैमरे के बैकग्राउंड को रेंडर करते समय ईआईएस कंपेसेशन को शामिल करते हैं. ईआईएस से कैप्चर किए गए निर्देशांक पाने के लिए, Frame.transformCoordinates3d() का इस्तेमाल करें. इसके लिए, OPENGL_NORMALIZED_DEVICE_COORDINATES को इनपुट के तौर पर और EIS_NORMALIZED_DEVICE_COORDINATES को आउटपुट के तौर पर इस्तेमाल करें. इससे, 3D डिवाइस के निर्देशांक मिलेंगे. साथ ही, EIS_TEXTURE_NORMALIZED को आउटपुट के तौर पर इस्तेमाल करके, 3D टेक्स्चर के निर्देशांक भी मिलेंगे. फ़िलहाल, Frame.transformCoordinates3d() के लिए सिर्फ़ OPENGL_NORMALIZED_DEVICE_COORDINATES टाइप के इनपुट कोऑर्डिनेट का इस्तेमाल किया जा सकता है.

Java

final FloatBuffer cameraTexCoords =
    ByteBuffer.allocateDirect(COORDS_BUFFER_SIZE_3D)
        .order(ByteOrder.nativeOrder())
        .asFloatBuffer();

final FloatBuffer screenCoords =
    ByteBuffer.allocateDirect(COORDS_BUFFER_SIZE_3D)
        .order(ByteOrder.nativeOrder())
        .asFloatBuffer();

final FloatBuffer NDC_QUAD_COORDS_BUFFER =
    ByteBuffer.allocateDirect(COORDS_BUFFER_SIZE_2D)
        .order(ByteOrder.nativeOrder())
        .asFloatBuffer()
        .put(
            new float[] {
              /*0:*/ -1f, -1f, /*1:*/ +1f, -1f, /*2:*/ -1f, +1f, /*3:*/ +1f, +1f,
            });

final VertexBuffer screenCoordsVertexBuffer =
    new VertexBuffer(render, /* numberOfEntriesPerVertex= */ 3, null);
final VertexBuffer cameraTexCoordsVertexBuffer =
    new VertexBuffer(render, /* numberOfEntriesPerVertex= */ 3, null);

NDC_QUAD_COORDS_BUFFER.rewind();
frame.transformCoordinates3d(
    Coordinates2d.OPENGL_NORMALIZED_DEVICE_COORDINATES,
    NDC_QUAD_COORDS_BUFFER,
    Coordinates3d.EIS_NORMALIZED_DEVICE_COORDINATES,
    screenCoords);
screenCoordsVertexBuffer.set(screenCoords);

NDC_QUAD_COORDS_BUFFER.rewind();
frame.transformCoordinates3d(
    Coordinates2d.OPENGL_NORMALIZED_DEVICE_COORDINATES,
    NDC_QUAD_COORDS_BUFFER,
    Coordinates3d.EIS_TEXTURE_NORMALIZED,
    cameraTexCoords);
cameraTexCoordsVertexBuffer.set(cameraTexCoords);

Kotlin

val COORDS_BUFFER_SIZE_2D = 2 * 4 * Float.SIZE_BYTES
val COORDS_BUFFER_SIZE_3D = 3 * 4 * Float.SIZE_BYTES
val cameraTexCoords =
  ByteBuffer.allocateDirect(COORDS_BUFFER_SIZE_3D)
    .order(ByteOrder.nativeOrder())
    .asFloatBuffer()
val screenCoords =
  ByteBuffer.allocateDirect(COORDS_BUFFER_SIZE_3D)
    .order(ByteOrder.nativeOrder())
    .asFloatBuffer()
val cameraTexCoordsVertexBuffer = VertexBuffer(render, /* numberOfEntriesPerVertex= */ 3, null)
val screenCoordsVertexBuffer = VertexBuffer(render, /* numberOfEntriesPerVertex= */ 3, null)
val NDC_QUAD_COORDS_BUFFER =
  ByteBuffer.allocateDirect(COORDS_BUFFER_SIZE_2D)
    .order(ByteOrder.nativeOrder())
    .asFloatBuffer()
    .apply {
      put(
        floatArrayOf(
          /* 0: */
          -1f,
          -1f,
          /* 1: */
          +1f,
          -1f,
          /* 2: */
          -1f,
          +1f,
          /* 3: */
          +1f,
          +1f
        )
      )
    }
NDC_QUAD_COORDS_BUFFER.rewind()
frame.transformCoordinates3d(
  Coordinates2d.OPENGL_NORMALIZED_DEVICE_COORDINATES,
  NDC_QUAD_COORDS_BUFFER,
  Coordinates3d.EIS_NORMALIZED_DEVICE_COORDINATES,
  screenCoords
)
screenCoordsVertexBuffer.set(screenCoords)

NDC_QUAD_COORDS_BUFFER.rewind()
frame.transformCoordinates3d(
  Coordinates2d.OPENGL_NORMALIZED_DEVICE_COORDINATES,
  NDC_QUAD_COORDS_BUFFER,
  Coordinates3d.EIS_TEXTURE_NORMALIZED,
  cameraTexCoords
)
cameraTexCoordsVertexBuffer.set(cameraTexCoords)

ईआईएस बंद होने पर, आउटपुट के 3D निर्देशांक, उनके 2D निर्देशांक के बराबर होते हैं. साथ ही, z वैल्यू को कोई बदलाव न करने के लिए सेट किया जाता है.

शेडर में बदलाव करना

कैलकुलेट किए गए 3D निर्देशांक, बैकग्राउंड रेंडरिंग शेडर को पास किए जाने चाहिए. वर्टेक्स बफ़र अब ईआईएस के साथ 3D में हैं:

layout(location = 0) in vec4 a_Position;
layout(location = 1) in vec3 a_CameraTexCoord;
out vec3 v_CameraTexCoord;
void main() {
  gl_Position = a_Position;
  v_CameraTexCoord = a_CameraTexCoord;
}

इसके अलावा, फ़्रैगमेंट शेडर को पर्सपेक्टिव सुधार लागू करना होगा:

precision mediump float;
uniform samplerExternalOES u_CameraColorTexture;
in vec3 v_CameraTexCoord;
layout(location = 0) out vec4 o_FragColor;
void main() {
  vec3 tc = (v_CameraTexCoord / v_CameraTexCoord.z);
  o_FragColor = texture(u_CameraColorTexture, tc.xy);
}

ज़्यादा जानकारी के लिए, hello_eis_kotlin सैंपल ऐप्लिकेशन देखें.