Android 向けジェスチャー認識ガイド

MediaPipe ジェスチャー認識タスクを使用すると、手のジェスチャーをリアルタイムで認識し、認識された手のジェスチャーの結果と検出された手のランドマークを提供します。ここでは、Android アプリでジェスチャー認識ツールを使用する方法について説明します。この手順で説明されているコードサンプルは、GitHub で入手できます。

このタスクの実際の動作は、ウェブデモで確認できます。このタスクの機能、モデル、構成オプションの詳細については、概要をご覧ください。

サンプルコード

MediaPipe Tasks のサンプルコードは、Android 用ジェスチャー認識アプリの簡単な実装です。この例では、実際の Android デバイスのカメラを使用して、手のジェスチャーを継続的に検出します。また、デバイス ギャラリーの画像や動画を使用して、ジェスチャーを静的に検出することもできます。

このアプリは、独自の Android アプリの出発点として使用できます。また、既存のアプリを変更するときにアプリを参照できます。ジェスチャー認識ツールのサンプルコードは GitHub でホストされています。

コードをダウンロードする

次の手順では、git コマンドライン ツールを使用してサンプルコードのローカルコピーを作成する方法を示します。

サンプルコードをダウンロードするには:

  1. 次のコマンドを使用して、git リポジトリのクローンを作成します。
    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. 必要に応じて、スパース チェックアウトを使用するように Git インスタンスを構成し、ジェスチャー認識サンプルアプリのファイルのみが含まれるようにします(
    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/gesture_recognizer/android
    
    )。

サンプルコードのローカル バージョンを作成したら、Android Studio にプロジェクトをインポートしてアプリを実行できます。手順については、Android の設定ガイドをご覧ください。

主要コンポーネント

次のファイルには、この手のジェスチャー認識のサンプル アプリケーションの重要なコードが含まれています。

セットアップ

このセクションでは、ジェスチャー認識ツールを使用するための開発環境とコード プロジェクトのセットアップの主な手順について説明します。プラットフォームのバージョン要件など、MediaPipe タスクを使用するための開発環境の設定に関する一般的な情報については、Android の設定ガイドをご覧ください。

依存関係

ジェスチャー認識タスクでは com.google.mediapipe:tasks-vision ライブラリを使用します。この依存関係を Android アプリの build.gradle ファイルに追加します。

dependencies {
    implementation 'com.google.mediapipe:tasks-vision:latest.release'
}

モデル

MediaPipe ジェスチャー認識タスクには、このタスクと互換性のあるトレーニング済みモデルバンドルが必要です。ジェスチャー認識ツールで利用可能なトレーニング済みモデルの詳細については、タスクの概要のモデル セクションをご覧ください。

モデルを選択してダウンロードし、プロジェクト ディレクトリに保存します。

<dev-project-root>/src/main/assets

ModelAssetPath パラメータ内にモデルのパスを指定します。このサンプルコードでは、モデルは GestureRecognizerHelper.kt ファイルで定義されています。

baseOptionBuilder.setModelAssetPath(MP_RECOGNIZER_TASK)

タスクを作成する

MediaPipe のジェスチャー認識タスクは、createFromOptions() 関数を使用してタスクをセットアップします。createFromOptions() 関数は、構成オプションの値を受け入れます。構成オプションの詳細については、構成オプションをご覧ください。

ジェスチャー認識ツールは、静止画像、動画ファイル、ライブ動画ストリームの 3 つの入力データ型をサポートしています。タスクの作成時に、入力データ型に対応する実行モードを指定する必要があります。入力データ型に対応するタブを選択して、タスクを作成して推論を実行する方法をご覧ください。

画像

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    GestureRecognizer.GestureRecognizerOptions.builder()
        .setBaseOptions(baseOptions)
        .setMinHandDetectionConfidence(minHandDetectionConfidence)
        .setMinTrackingConfidence(minHandTrackingConfidence)
        .setMinHandPresenceConfidence(minHandPresenceConfidence)
        .setRunningMode(RunningMode.IMAGE)

val options = optionsBuilder.build()
gestureRecognizer =
    GestureRecognizer.createFromOptions(context, options)
    

動画

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    GestureRecognizer.GestureRecognizerOptions.builder()
        .setBaseOptions(baseOptions)
        .setMinHandDetectionConfidence(minHandDetectionConfidence)
        .setMinTrackingConfidence(minHandTrackingConfidence)
        .setMinHandPresenceConfidence(minHandPresenceConfidence)
        .setRunningMode(RunningMode.VIDEO)

val options = optionsBuilder.build()
gestureRecognizer =
    GestureRecognizer.createFromOptions(context, options)
    

ライブ配信

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    GestureRecognizer.GestureRecognizerOptions.builder()
        .setBaseOptions(baseOptions)
        .setMinHandDetectionConfidence(minHandDetectionConfidence)
        .setMinTrackingConfidence(minHandTrackingConfidence)
        .setMinHandPresenceConfidence(minHandPresenceConfidence)
        .setResultListener(this::returnLivestreamResult)
        .setErrorListener(this::returnLivestreamError)
        .setRunningMode(RunningMode.LIVE_STREAM)

val options = optionsBuilder.build()
gestureRecognizer =
    GestureRecognizer.createFromOptions(context, options)
    

ジェスチャー認識ツールのサンプルコードを実装すると、ユーザーは処理モードを切り替えることができます。このアプローチでは、タスク作成コードが複雑になり、実際のユースケースには適さない可能性があります。このコードは、GestureRecognizerHelper.kt ファイルの setupGestureRecognizer() 関数で確認できます。

構成オプション

このタスクには、Android アプリ用に次の構成オプションがあります。

オプション名 説明 値の範囲 デフォルト値
runningMode タスクの実行モードを設定します。モードは 3 つあります。

IMAGE: 単一の画像入力のモード。

VIDEO: 動画のデコードされたフレームのモード。

LIVE_STREAM: カメラからのデータなど、入力データのライブストリームのモード。このモードでは、resultListener を呼び出して、結果を非同期で受け取るリスナーをセットアップする必要があります。
{IMAGE, VIDEO, LIVE_STREAM} IMAGE
numHands 手の最大数は GestureRecognizer で検出できます。 Any integer > 0 1
minHandDetectionConfidence 手のひら検出モデルで手の検出が成功したとみなすための最小信頼スコア。 0.0 - 1.0 0.5
minHandPresenceConfidence 手のランドマーク検出モデルにおける手の存在スコアの最小信頼スコア。ジェスチャー認識ツールの動画モードとライブ ストリーム モードでは、手のランドマーク モデルからの手の存在の信頼スコアがこのしきい値を下回ると、手のひら検出モデルがトリガーされます。それ以外の場合は、軽量のハンド トラッキング アルゴリズムを使用して、後続のランドマーク検出のための手の位置を決定します。 0.0 - 1.0 0.5
minTrackingConfidence 成功とみなされる、ハンド トラッキングの最小信頼スコア。これは、現在のフレームと最後のフレームの手の間の境界ボックスの IoU しきい値です。ジェスチャー認識ツールの動画モードとストリーム モードでは、トラッキングが失敗すると、ジェスチャー認識は手の検出をトリガーします。それ以外の場合、手の検出はスキップされます。 0.0 - 1.0 0.5
cannedGesturesClassifierOptions ジェスチャー分類器の動作に関するオプション。返信定型文は ["None", "Closed_Fist", "Open_Palm", "Pointing_Up", "Thumb_Down", "Thumb_Up", "Victory", "ILoveYou"] です。
  • 表示名のロケール: TFLite Model Metadata で指定された表示名に使用するロケール(存在する場合)。
  • 最大結果数: スコアが最上位の分類結果の最大数。0 未満の場合、利用可能なすべての結果が返されます。
  • スコアしきい値: スコアが下回ると、結果が拒否されます。0 に設定すると、利用可能なすべての結果が返されます。
  • カテゴリの許可リスト: カテゴリ名の許可リスト。空でない場合は、このセットにカテゴリが含まれていない分類結果は除外されます。拒否リストとは相互に排他的です。
  • カテゴリ拒否リスト: カテゴリ名の拒否リスト。空でない場合は、カテゴリがこのセットに含まれる分類結果は除外されます。許可リストとは相互に排他的です。
    • 表示名のロケール: any string
    • 最大結果数: any integer
    • スコアしきい値: 0.0-1.0
    • カテゴリの許可リスト: vector of strings
    • カテゴリ拒否リスト: vector of strings
    • 表示名のロケール: "en"
    • 最大結果数: -1
    • スコアしきい値: 0
    • カテゴリの許可リスト: 空
    • カテゴリ拒否リスト: 空
    customGesturesClassifierOptions カスタム ジェスチャー分類器の動作を設定するオプション。
  • 表示名のロケール: TFLite Model Metadata で指定された表示名に使用するロケール(存在する場合)。
  • 最大結果数: スコアが最上位の分類結果の最大数。0 未満の場合、利用可能なすべての結果が返されます。
  • スコアしきい値: スコアが下回ると、結果が拒否されます。0 に設定すると、利用可能なすべての結果が返されます。
  • カテゴリの許可リスト: カテゴリ名の許可リスト。空でない場合は、このセットにカテゴリが含まれていない分類結果は除外されます。拒否リストとは相互に排他的です。
  • カテゴリ拒否リスト: カテゴリ名の拒否リスト。空でない場合は、カテゴリがこのセットに含まれる分類結果は除外されます。許可リストとは相互に排他的です。
    • 表示名のロケール: any string
    • 最大結果数: any integer
    • スコアしきい値: 0.0-1.0
    • カテゴリの許可リスト: vector of strings
    • カテゴリ拒否リスト: vector of strings
    • 表示名のロケール: "en"
    • 最大結果数: -1
    • スコアしきい値: 0
    • カテゴリの許可リスト: 空
    • カテゴリ拒否リスト: 空
    resultListener ジェスチャー認識機能がライブ ストリーム モードのときに分類結果を非同期で受け取るように結果リスナーを設定します。実行モードが LIVE_STREAM に設定されている場合にのみ使用できます ResultListener なし なし
    errorListener オプションのエラーリスナーを設定します。 ErrorListener なし なし

    データの準備

    ジェスチャー認識ツールは、画像、動画ファイル、ライブ ストリーム動画に対して機能します。このタスクは、サイズ変更、回転、値の正規化などのデータ入力の前処理を処理します。

    次のコードは、処理するデータを渡す方法を示しています。これらのサンプルには、画像、動画ファイル、ライブ動画ストリームのデータを処理する方法に関する詳細が含まれています。

    画像

    import com.google.mediapipe.framework.image.BitmapImageBuilder
    import com.google.mediapipe.framework.image.MPImage
    
    // Convert the input Bitmap object to an MPImage object to run inference
    val mpImage = BitmapImageBuilder(image).build()
        

    動画

    import com.google.mediapipe.framework.image.BitmapImageBuilder
    import com.google.mediapipe.framework.image.MPImage
    
    val argb8888Frame =
        if (frame.config == Bitmap.Config.ARGB_8888) frame
        else frame.copy(Bitmap.Config.ARGB_8888, false)
    
    // Convert the input Bitmap object to an MPImage object to run inference
    val mpImage = BitmapImageBuilder(argb8888Frame).build()
        

    ライブ配信

    import com.google.mediapipe.framework.image.BitmapImageBuilder
    import com.google.mediapipe.framework.image.MPImage
    
    // Convert the input Bitmap object to an MPImage object to run inference
    val mpImage = BitmapImageBuilder(rotatedBitmap).build()
        

    ジェスチャー認識のサンプルコードでは、データの準備は GestureRecognizerHelper.kt ファイルで処理されます。

    タスクを実行する

    ジェスチャー認識ツールは、recognize 関数、recognizeForVideo 関数、recognizeAsync 関数を使用して推論をトリガーします。ジェスチャー認識では、入力データの前処理、画像内の手の検出、手のランドマークの検出、ランドマークからの手のジェスチャーの認識などを行います。

    次のコードは、タスクモデルで処理を実行する方法を示しています。これらのサンプルには、画像、動画ファイル、ライブ動画ストリームのデータを処理する方法に関する詳細が含まれています。

    画像

    val result = gestureRecognizer?.recognize(mpImage)
        

    動画

    val timestampMs = i * inferenceIntervalMs
    
    gestureRecognizer?.recognizeForVideo(mpImage, timestampMs)
        ?.let { recognizerResult ->
            resultList.add(recognizerResult)
        }
        

    ライブ配信

    val mpImage = BitmapImageBuilder(rotatedBitmap).build()
    val frameTime = SystemClock.uptimeMillis()
    
    gestureRecognizer?.recognizeAsync(mpImage, frameTime)
        

    次の点にご留意ください。

    • 動画モードまたはライブ ストリーム モードで実行する場合は、入力フレームのタイムスタンプもジェスチャー認識タスクに渡す必要があります。
    • 画像モードまたは動画モードで実行されている場合、ジェスチャー認識タスクは入力画像または入力フレームの処理を完了するまで現在のスレッドをブロックします。ユーザー インターフェースがブロックされないように、処理はバックグラウンド スレッドで実行します。
    • ライブ ストリーム モードで実行されている場合、ジェスチャー認識タスクは現在のスレッドをブロックせず、すぐに結果を返します。入力フレームの処理を完了するたびに、認識結果を使用して結果リスナーを呼び出します。ジェスチャー認識タスクが別のフレームの処理でビジー状態のときに認識関数が呼び出された場合、タスクは新しい入力フレームを無視します。

    ジェスチャー認識のサンプルコードでは、recognizerecognizeForVideorecognizeAsync の各関数は GestureRecognizerHelper.kt ファイルで定義されています。

    結果を処理して表示する

    ジェスチャー認識ツールは、認識を実行するたびにジェスチャー検出結果オブジェクトを生成します。結果オブジェクトには、画像座標の手のランドマーク、世界座標の手のランドマーク、利き手(左手と右手)、検出された手のジェスチャーのカテゴリが含まれます。

    このタスクからの出力データの例を次に示します。

    結果として得られる GestureRecognizerResult には 4 つのコンポーネントが含まれ、各コンポーネントは配列です。各要素には、検出された 1 つの手の検出結果が含まれます。

    • 利き手

      利き手は、検出された手が左手か右手かを表します。

    • 操作

      検出された手の認識されるジェスチャー カテゴリ。

    • ランドマーク

      21 個の手のランドマークがあり、それぞれ xyz 座標で構成されています。x 座標と y 座標は、それぞれ画像の幅と高さによって [0.0, 1.0] に正規化されます。z 座標はランドマークの深さを表し、手首の深度を原点とします。値が小さいほど、ランドマークがカメラに近くなります。z の大きさは、x とほぼ同じスケールを使用します。

    • 世界の名所

      21 の手のランドマークも世界座標で表示されます。各ランドマークは xyz で構成され、手の幾何学的中心を原点とする実際の 3D 座標をメートル単位で表します。

    GestureRecognizerResult:
      Handedness:
        Categories #0:
          index        : 0
          score        : 0.98396
          categoryName : Left
      Gestures:
        Categories #0:
          score        : 0.76893
          categoryName : Thumb_Up
      Landmarks:
        Landmark #0:
          x            : 0.638852
          y            : 0.671197
          z            : -3.41E-7
        Landmark #1:
          x            : 0.634599
          y            : 0.536441
          z            : -0.06984
        ... (21 landmarks for a hand)
      WorldLandmarks:
        Landmark #0:
          x            : 0.067485
          y            : 0.031084
          z            : 0.055223
        Landmark #1:
          x            : 0.063209
          y            : -0.00382
          z            : 0.020920
        ... (21 world landmarks for a hand)
    

    次の図は、タスク出力を可視化したものです。

    ジェスチャー認識のサンプルコードでは、GestureRecognizerResultsAdapter.kt ファイル内の GestureRecognizerResultsAdapter クラスが結果を処理します。