Android の ML Kit でデジタルインクを認識する

ML Kit のデジタル インク認識機能を使用すると、デジタル サーフェスに書き込まれた数百の言語で手書き文字を認識し、スケッチを分類できます。

始める前に

  1. プロジェクト レベルの build.gradle ファイルの buildscript セクションと allprojects セクションの両方に Google の Maven リポジトリを組み込みます。
  2. ML Kit Android ライブラリの依存関係をモジュールのアプリレベルの Gradle ファイル(通常は app/build.gradle)に追加します。
dependencies {
  // ...
  implementation 'com.google.mlkit:digital-ink-recognition:18.0.0'
}

これで、Ink オブジェクト内のテキストを認識する準備ができました。

Ink オブジェクトをビルドする

Ink オブジェクトをビルドする主な方法は、タッチ スクリーンに描画することです。Android では、この目的のために Canvas を使用できます。タッチイベント ハンドラは、次のコード スニペットに示す addNewTouchEvent() メソッドを呼び出します。これにより、ユーザーが描画したストローク内のポイントが Ink オブジェクトに保存されます。

この一般的なパターンを次のコード スニペットに示します。より詳細な例については、ML Kit クイックスタート サンプルをご覧ください。

Kotlin

var inkBuilder = Ink.builder()
lateinit var strokeBuilder: Ink.Stroke.Builder

// Call this each time there is a new event.
fun addNewTouchEvent(event: MotionEvent) {
  val action = event.actionMasked
  val x = event.x
  val y = event.y
  var t = System.currentTimeMillis()

  // If your setup does not provide timing information, you can omit the
  // third paramater (t) in the calls to Ink.Point.create
  when (action) {
    MotionEvent.ACTION_DOWN -> {
      strokeBuilder = Ink.Stroke.builder()
      strokeBuilder.addPoint(Ink.Point.create(x, y, t))
    }
    MotionEvent.ACTION_MOVE -> strokeBuilder!!.addPoint(Ink.Point.create(x, y, t))
    MotionEvent.ACTION_UP -> {
      strokeBuilder.addPoint(Ink.Point.create(x, y, t))
      inkBuilder.addStroke(strokeBuilder.build())
    }
    else -> {
      // Action not relevant for ink construction
    }
  }
}

...

// This is what to send to the recognizer.
val ink = inkBuilder.build()

Java

Ink.Builder inkBuilder = Ink.builder();
Ink.Stroke.Builder strokeBuilder;

// Call this each time there is a new event.
public void addNewTouchEvent(MotionEvent event) {
  float x = event.getX();
  float y = event.getY();
  long t = System.currentTimeMillis();

  // If your setup does not provide timing information, you can omit the
  // third paramater (t) in the calls to Ink.Point.create
  int action = event.getActionMasked();
  switch (action) {
    case MotionEvent.ACTION_DOWN:
      strokeBuilder = Ink.Stroke.builder();
      strokeBuilder.addPoint(Ink.Point.create(x, y, t));
      break;
    case MotionEvent.ACTION_MOVE:
      strokeBuilder.addPoint(Ink.Point.create(x, y, t));
      break;
    case MotionEvent.ACTION_UP:
      strokeBuilder.addPoint(Ink.Point.create(x, y, t));
      inkBuilder.addStroke(strokeBuilder.build());
      strokeBuilder = null;
      break;
  }
}

...

// This is what to send to the recognizer.
Ink ink = inkBuilder.build();

DigitalInkRecognizer のインスタンスを取得する

認識を行うには、Ink インスタンスを DigitalInkRecognizer オブジェクトに送信します。以下のコードは、BCP-47 タグからこのような認識器をインスタンス化する方法を示しています。

Kotlin

// Specify the recognition model for a language
var modelIdentifier: DigitalInkRecognitionModelIdentifier
try {
  modelIdentifier = DigitalInkRecognitionModelIdentifier.fromLanguageTag("en-US")
} catch (e: MlKitException) {
  // language tag failed to parse, handle error.
}
if (modelIdentifier == null) {
  // no model was found, handle error.
}
var model: DigitalInkRecognitionModel =
    DigitalInkRecognitionModel.builder(modelIdentifier).build()


// Get a recognizer for the language
var recognizer: DigitalInkRecognizer =
    DigitalInkRecognition.getClient(
        DigitalInkRecognizerOptions.builder(model).build())

Java

// Specify the recognition model for a language
DigitalInkRecognitionModelIdentifier modelIdentifier;
try {
  modelIdentifier =
    DigitalInkRecognitionModelIdentifier.fromLanguageTag("en-US");
} catch (MlKitException e) {
  // language tag failed to parse, handle error.
}
if (modelIdentifier == null) {
  // no model was found, handle error.
}

DigitalInkRecognitionModel model =
    DigitalInkRecognitionModel.builder(modelIdentifier).build();

// Get a recognizer for the language
DigitalInkRecognizer recognizer =
    DigitalInkRecognition.getClient(
        DigitalInkRecognizerOptions.builder(model).build());

Ink オブジェクトを処理する

Kotlin

recognizer.recognize(ink)
    .addOnSuccessListener { result: RecognitionResult ->
      // `result` contains the recognizer's answers as a RecognitionResult.
      // Logs the text from the top candidate.
      Log.i(TAG, result.candidates[0].text)
    }
    .addOnFailureListener { e: Exception ->
      Log.e(TAG, "Error during recognition: $e")
    }

Java

recognizer.recognize(ink)
    .addOnSuccessListener(
        // `result` contains the recognizer's answers as a RecognitionResult.
        // Logs the text from the top candidate.
        result -> Log.i(TAG, result.getCandidates().get(0).getText()))
    .addOnFailureListener(
        e -> Log.e(TAG, "Error during recognition: " + e));

上記のサンプルコードでは、次のセクションで説明するように、認識モデルがすでにダウンロードされていることを前提としています。

モデルのダウンロードの管理

デジタルインク認識 API は何百もの言語をサポートしていますが、それぞれの言語では認識前にデータをダウンロードする必要があります。言語ごとに約 20 MB のストレージが必要です。これは RemoteModelManager オブジェクトによって処理されます。

新しいモデルをダウンロードする

Kotlin

import com.google.mlkit.common.model.DownloadConditions
import com.google.mlkit.common.model.RemoteModelManager

var model: DigitalInkRecognitionModel =  ...
val remoteModelManager = RemoteModelManager.getInstance()

remoteModelManager.download(model, DownloadConditions.Builder().build())
    .addOnSuccessListener {
      Log.i(TAG, "Model downloaded")
    }
    .addOnFailureListener { e: Exception ->
      Log.e(TAG, "Error while downloading a model: $e")
    }

Java

import com.google.mlkit.common.model.DownloadConditions;
import com.google.mlkit.common.model.RemoteModelManager;

DigitalInkRecognitionModel model = ...;
RemoteModelManager remoteModelManager = RemoteModelManager.getInstance();

remoteModelManager
    .download(model, new DownloadConditions.Builder().build())
    .addOnSuccessListener(aVoid -> Log.i(TAG, "Model downloaded"))
    .addOnFailureListener(
        e -> Log.e(TAG, "Error while downloading a model: " + e));

モデルがダウンロード済みかどうかを確認する

Kotlin

var model: DigitalInkRecognitionModel =  ...
remoteModelManager.isModelDownloaded(model)

Java

DigitalInkRecognitionModel model = ...;
remoteModelManager.isModelDownloaded(model);

ダウンロードしたモデルを削除する

デバイスのストレージからモデルを削除すると、空き容量が増えます。

Kotlin

var model: DigitalInkRecognitionModel =  ...
remoteModelManager.deleteDownloadedModel(model)
    .addOnSuccessListener {
      Log.i(TAG, "Model successfully deleted")
    }
    .addOnFailureListener { e: Exception ->
      Log.e(TAG, "Error while deleting a model: $e")
    }

Java

DigitalInkRecognitionModel model = ...;
remoteModelManager.deleteDownloadedModel(model)
                  .addOnSuccessListener(
                      aVoid -> Log.i(TAG, "Model successfully deleted"))
                  .addOnFailureListener(
                      e -> Log.e(TAG, "Error while deleting a model: " + e));

テキスト認識の精度を向上させるためのヒント

テキスト認識の精度は言語によって異なります。精度は書き方にも左右されます。デジタルインク認識はさまざまな文体のスタイルを処理するようにトレーニングされていますが、結果はユーザーによって異なります。

テキスト認識機能の精度を向上させる方法は次のとおりです。これらの手法は、絵文字、自動描画、シェイプの描画分類器には適用されません。

書き込みエリア

多くのアプリケーションでは、ユーザー入力用の書き込み領域が明確に定義されています。シンボルの意味は、そのシンボルを含む書き込み領域のサイズに応じて、そのサイズによって部分的に決定されます。たとえば、小文字の「or」と「o」または「c」の区別や、カンマとスラッシュを区別します。

認識領域に書き込み領域の幅と高さを指定すると、精度が向上する可能性があります。ただし、認識領域では、書き込み領域には 1 行のテキストしか含まれていないと想定されています。物理的な書き込み領域が 2 行以上書けるほど広い場合は、テキストの高さを 1 行で見積もった最適な高さである WriteArea を渡すと、結果が向上します。認識機能に渡す WriteArea オブジェクトは、画面上の物理的な書き込み領域と完全に一致する必要はありません。このように ことがあります。

書き込み領域を指定する場合は、ストローク座標と同じ単位で幅と高さを指定します。x,y 座標引数には単位の要件がありません。API はすべての単位を正規化するため、重要なのはストロークの相対的なサイズと位置だけです。システムに適した範囲の座標を自由に渡すことができます。

コンテキスト前

事前コンテキストは、認識しようとしている Ink 内のストロークの直前にあるテキストです。認識機能をサポートするには、前もってコンテキストを伝えます。

たとえば、手書きメモの文字「n」は誤って解釈されることがあります。ユーザーが部分的な単語 "arg" をすでに入力している場合は、そのまま入力を続けることができます。事前コンテキスト - 引数を指定して指定すると、「引数」よりも「引数」を使用する可能性が高いため、曖昧さが解消されます。

事前コンテキストを利用すると、認識機能が単語の区切り(単語間のスペース)を識別しやすくなります。スペース文字を入力することはできますが、描画することはできません。認識機能によって、ある単語が終了し、次の単語がいつ開始されるかを判定するにはどうすればよいでしょうか。ユーザーがすでに「hello」をすでに書いていて、「world」という単語を続けると、認識機能は文字列「world」を返します。ただし、事前コンテキストの「hello」を指定すると、モデルから「hello world」以降の文字列が返されるため、「hello world」のように先頭のスペースを含む文字列が返されます。

コンテキストを含む最長の文字列(スペースを含む)を 20 文字以下で指定してください。文字列が長い場合、認識機能は最後の 20 文字のみを使用します。

次のコードサンプルは、書き込み領域を定義し、RecognitionContext オブジェクトを使用して事前コンテキストを指定する方法を示しています。

Kotlin

var preContext : String = ...;
var width : Float = ...;
var height : Float = ...;
val recognitionContext : RecognitionContext =
    RecognitionContext.builder()
        .setPreContext(preContext)
        .setWritingArea(WritingArea(width, height))
        .build()

recognizer.recognize(ink, recognitionContext)

Java

String preContext = ...;
float width = ...;
float height = ...;
RecognitionContext recognitionContext =
    RecognitionContext.builder()
                      .setPreContext(preContext)
                      .setWritingArea(new WritingArea(width, height))
                      .build();

recognizer.recognize(ink, recognitionContext);

ストロークの順序付け

認識精度は、ストロークの順序の影響を受けます。認識機能は、人間が自然に書く順序でストロークが発生することを想定しています(たとえば、英語の場合は左から右)。このパターンから外れると(たとえば、最後の単語で始まる英語の文章を書くなど)、正確な結果が得られません。

別の例として、Ink の中央にある単語を削除して別の単語に置き換えた場合です。リビジョンはおそらくセンテンスの中央にありますが、リビジョンのストロークはストローク シーケンスの最後にあります。この場合は、新しく書き込まれた単語を API に個別に送信し、独自のロジックを使用して結果を以前の認識と統合することをおすすめします。

あいまいな形状に対処する

認識機能に渡される形状の意味があいまいな場合もあります。たとえば、角が丸い長方形は、長方形や楕円とみなされます。

こうした不明確なケースは、認識スコアが利用可能な場合、それを使用して対処できます。スコアを付けるのはシェイプ分類器だけです。モデルが非常に信頼できる場合、上位の結果のスコアは 2 番目に良いスコアよりもはるかに高くなります。不確実性がある場合、上位 2 つの結果のスコアは近似値になります。また、形状分類器は、Ink 全体を単一のシェイプとして解釈する点にも留意してください。たとえば、Ink に長方形と楕円が隣り合わせに含まれている場合、認識機能では 1 つの認識候補が 2 つの形状を表すことができないため、どちらか一方(またはまったく異なるもの)が返されます。