MediaPipe の手のランドマーク タスクでは、画像内の手のランドマークを検出できます。ここでは、Android アプリで手のランドマーク ツールを使用する方法について説明します。この手順で説明されているコードサンプルは、GitHub で入手できます。
このタスクの機能、モデル、構成オプションの詳細については、概要をご覧ください。
サンプルコード
MediaPipe Tasks のサンプルコードは、Android 用手のランドマーク アプリの簡単な実装です。この例では、実際の Android デバイスのカメラを使用して、手のランドマークを継続的に検出します。また、デバイス ギャラリーの画像や動画を使用して、手のランドマークを静的に検出することもできます。
このアプリは、独自の Android アプリの出発点として使用できます。または、既存のアプリを変更するときにアプリを参照することもできます。Hand Landscapeer のサンプルコードは、GitHub でホストされています。
コードをダウンロードする
次の手順では、git コマンドライン ツールを使用してサンプルコードのローカルコピーを作成する方法を示します。
サンプルコードをダウンロードするには:
- 次のコマンドを使用して、git リポジトリのクローンを作成します。
git clone https://github.com/google-ai-edge/mediapipe-samples
- 必要に応じて、スパース チェックアウトを使用するように Git インスタンスを構成します。これにより、Hand Landscapeer サンプルアプリのファイルのみが含まれるようになります。
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/hand_landmarker/android
サンプルコードのローカル バージョンを作成したら、Android Studio にプロジェクトをインポートしてアプリを実行できます。手順については、Android の設定ガイドをご覧ください。
主要コンポーネント
次のファイルには、この手のランドマーク検出サンプル アプリケーションの重要なコードが含まれています。
- HandLandmarkerHelper.kt - 手のランドマーク検出機能を初期化し、モデルを処理して選択を委任します。
- MainActivity.kt -
HandLandmarkerHelper
の呼び出しなど、アプリを実装します。
セットアップ
このセクションでは、ハンド ランドマークャーの使用に特化した開発環境とコード プロジェクトをセットアップする主な手順について説明します。プラットフォームのバージョン要件など、MediaPipe タスクを使用するための開発環境の設定に関する一般的な情報については、Android の設定ガイドをご覧ください。
依存関係
手のランドマーク タスクでは、com.google.mediapipe:tasks-vision
ライブラリを使用します。この依存関係を Android アプリの build.gradle
ファイルに追加します。
dependencies {
implementation 'com.google.mediapipe:tasks-vision:latest.release'
}
モデル
MediaPipe Hand Landscapeer タスクには、このタスクと互換性のあるトレーニング済みモデルバンドルが必要です。手のランドマーク用の利用可能なトレーニング済みモデルの詳細については、タスクの概要のモデル セクションをご覧ください。
モデルを選択してダウンロードし、プロジェクト ディレクトリに保存します。
<dev-project-root>/src/main/assets
ModelAssetPath
パラメータ内にモデルのパスを指定します。このサンプルコードでは、モデルは HandLandmarkerHelper.kt
ファイルで定義されています。
baseOptionBuilder.setModelAssetPath(MP_HAND_LANDMARKER_TASK)
タスクを作成する
MediaPipe Hand Landscapeer タスクは、createFromOptions()
関数を使用してタスクをセットアップします。createFromOptions()
関数は、構成オプションの値を受け入れます。構成オプションの詳細については、構成オプションをご覧ください。
手のランドマークは、静止画像、動画ファイル、ライブ ストリームの 3 つの入力データ型をサポートしています。タスクの作成時に、入力データ型に対応する実行モードを指定する必要があります。入力データ型に対応するタブを選択して、タスクを作成して推論を実行する方法を確認します。
画像
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_HAND_LANDMARKER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = HandLandmarker.HandLandmarkerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setNumHands(maxNumHands) .setRunningMode(RunningMode.IMAGE) val options = optionsBuilder.build() handLandmarker = HandLandmarker.createFromOptions(context, options)
動画
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_HAND_LANDMARKER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = HandLandmarker.HandLandmarkerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setNumHands(maxNumHands) .setRunningMode(RunningMode.VIDEO) val options = optionsBuilder.build() handLandmarker = HandLandmarker.createFromOptions(context, options)
ライブ配信
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_HAND_LANDMARKER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = HandLandmarker.HandLandmarkerOptions.builder() .setBaseOptions(baseOptions) .setMinHandDetectionConfidence(minHandDetectionConfidence) .setMinTrackingConfidence(minHandTrackingConfidence) .setMinHandPresenceConfidence(minHandPresenceConfidence) .setNumHands(maxNumHands) .setResultListener(this::returnLivestreamResult) .setErrorListener(this::returnLivestreamError) .setRunningMode(RunningMode.VIDEO) val options = optionsBuilder.build() handLandmarker = HandLandmarker.createFromOptions(context, options)
手のマーカーのサンプルコードを実装すると、ユーザーは処理モードを切り替えることができます。このアプローチでは、タスク作成コードが複雑になり、実際のユースケースには適さない可能性があります。このコードは、HandLandmarkerHelper.kt
ファイルの setupHandLandmarker()
関数で確認できます。
構成オプション
このタスクには、Android アプリ用に次の構成オプションがあります。
オプション名 | 説明 | 値の範囲 | デフォルト値 |
---|---|---|---|
runningMode |
タスクの実行モードを設定します。モードは 3 つあります。 IMAGE: 単一の画像入力のモード。 VIDEO: 動画のデコードされたフレームのモード。 LIVE_STREAM: カメラからのデータなど、入力データのライブストリームのモード。このモードでは、resultListener を呼び出して、結果を非同期で受け取るリスナーをセットアップする必要があります。 |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
numHands |
手のランドマーク検出機能で検出される手の最大数。 | Any integer > 0 |
1 |
minHandDetectionConfidence |
手のひら検出モデルで手の検出が成功したとみなすための最小信頼スコア。 | 0.0 - 1.0 |
0.5 |
minHandPresenceConfidence |
手のランドマーク検出モデルにおける手の存在スコアの最小信頼スコア。動画モードとライブ ストリーム モードでは、手のランドマーク モデルからの手の存在信頼スコアがこのしきい値を下回った場合、手のひら検出モデルがトリガーされます。それ以外の場合は、軽量のハンド トラッキング アルゴリズムが、後続のランドマーク検出で使用する手の位置を決定します。 | 0.0 - 1.0 |
0.5 |
minTrackingConfidence |
成功とみなされる、ハンド トラッキングの最小信頼スコア。これは、現在のフレームと最後のフレームの手の間の境界ボックスの IoU しきい値です。手のマーカーの動画モードとストリーム モードでは、トラッキングが失敗すると、手のマーカーが手の検出をトリガーします。それ以外の場合は、手の検出はスキップされます。 | 0.0 - 1.0 |
0.5 |
resultListener |
手のランドマークがライブ ストリーム モードのときに検出結果を非同期で受け取るように結果リスナーを設定します。実行モードが LIVE_STREAM に設定されている場合にのみ適用されます。 |
なし | なし |
errorListener |
オプションのエラーリスナーを設定します。 | なし | なし |
データの準備
手のランドマークは、画像、動画ファイル、ライブ ストリーム動画に対応しています。このタスクは、サイズ変更、回転、値の正規化などのデータ入力の前処理を処理します。
次のコードは、処理するデータを渡す方法を示しています。これらのサンプルには、画像、動画ファイル、ライブ動画ストリームのデータを処理する方法に関する詳細が含まれています。
画像
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(image).build()
動画
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage val argb8888Frame = if (frame.config == Bitmap.Config.ARGB_8888) frame else frame.copy(Bitmap.Config.ARGB_8888, false) // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(argb8888Frame).build()
ライブ配信
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(rotatedBitmap).build()
Hand Landscapeer のサンプルコードでは、データの準備は HandLandmarkerHelper.kt
ファイルで処理されます。
タスクを実行する
扱うデータの種類に応じて、そのデータ型に固有の HandLandmarker.detect...()
メソッドを使用します。個々の画像には detect()
、動画ファイルのフレームには detectForVideo()
、動画ストリームには detectAsync()
を使用します。動画ストリームに対して検出を実行する場合は、ユーザー インターフェース スレッドがブロックされないように、検出を別のスレッドで実行してください。
次のコードサンプルは、さまざまなデータモードで手のランドマーク ツールを実行する簡単な例を示しています。
画像
val result = handLandmarker?.detect(mpImage)
動画
val timestampMs = i * inferenceIntervalMs handLandmarker?.detectForVideo(mpImage, timestampMs) ?.let { detectionResult -> resultList.add(detectionResult) }
ライブ配信
val mpImage = BitmapImageBuilder(rotatedBitmap).build() val frameTime = SystemClock.uptimeMillis() handLandmarker?.detectAsync(mpImage, frameTime)
次の点にご留意ください。
- 動画モードまたはライブ ストリーム モードで実行する場合は、入力フレームのタイムスタンプも手のランドマーク タスクに渡す必要があります。
- 画像モードまたは動画モードで実行する場合、手のランドマーク タスクは、入力画像またはフレームの処理が完了するまで現在のスレッドをブロックします。ユーザー インターフェースがブロックされないように、処理はバックグラウンド スレッドで実行します。
- ライブ ストリーム モードで実行されている場合、手のランドマーク タスクは現在のスレッドをブロックせず、すぐに結果を返します。入力フレームの処理が完了するたびに、検出結果とともに結果リスナーを呼び出します。手のランドマーク タスクが別のフレームの処理でビジー状態のときに検出関数が呼び出された場合、タスクは新しい入力フレームを無視します。
Hand Landscapeer のサンプルコードでは、detect
、detectForVideo
、detectAsync
の各関数は HandLandmarkerHelper.kt
ファイルで定義されています。
結果を処理して表示する
手のランドマークは、検出の実行ごとに手のランドマークの結果オブジェクトを生成します。結果オブジェクトには、画像座標に手のランドマーク、世界座標に手のランドマーク、検出された手の利き手(左手と右手)が含まれます。
このタスクからの出力データの例を次に示します。
HandLandmarkerResult
の出力には、3 つのコンポーネントが含まれます。各コンポーネントは配列です。各要素には、検出された 1 つの手について、次の結果が含まれます。
利き手
利き手は、検出された手が左手か右手かを表します。
ランドマーク
21 個の手のランドマークがあり、それぞれ
x
、y
、z
座標で構成されています。x
座標とy
座標は、それぞれ画像の幅と高さによって [0.0, 1.0] に正規化されます。z
座標はランドマークの深さを表し、手首の深度を原点とします。値が小さいほど、ランドマークがカメラに近くなります。z
の大きさは、x
とほぼ同じスケールを使用します。世界の名所
21 の手のランドマークも世界座標で表示されます。各ランドマークは
x
、y
、z
で構成され、手の幾何学的中心を原点とする実際の 3D 座標をメートル単位で表します。
HandLandmarkerResult:
Handedness:
Categories #0:
index : 0
score : 0.98396
categoryName : Left
Landmarks:
Landmark #0:
x : 0.638852
y : 0.671197
z : -3.41E-7
Landmark #1:
x : 0.634599
y : 0.536441
z : -0.06984
... (21 landmarks for a hand)
WorldLandmarks:
Landmark #0:
x : 0.067485
y : 0.031084
z : 0.055223
Landmark #1:
x : 0.063209
y : -0.00382
z : 0.020920
... (21 world landmarks for a hand)
次の図は、タスク出力を可視化したものです。
手のランドマーク サンプルコードは、タスクから返された結果を表示する方法を示しています。詳しくは、OverlayView
クラスをご覧ください。