姿勢ランドマーク検出ガイド(Android)

MediaPipe のポーズのランドマーク タスクでは、画像や動画に含まれる人体のランドマークを検出できます。このタスクを使用して、身体の主な位置の特定、姿勢の分析、動作の分類を行うことができます。このタスクでは、単一の画像または動画で動作する機械学習(ML)モデルを使用します。このタスクは、身体の姿勢のランドマークを画像座標と 3 次元の世界座標で出力します。

この手順で説明されているコードサンプルは、GitHub で入手できます。このタスクの機能、モデル、構成オプションの詳細については、概要をご覧ください。

サンプルコード

MediaPipe Tasks のサンプルコードは、Android 用ポーズ ランドマーク アプリの簡単な実装です。この例では、物理 Android デバイスのカメラを使用して、連続動画ストリームからポーズを検出します。また、デバイス ギャラリーから画像や動画のポーズを検出することもできます。

このアプリは、独自の Android アプリの出発点として使用できます。また、既存のアプリを変更するときにアプリを参照することもできます。ポーズ ランドマーク er サンプルコードは、GitHub でホストされています。

コードをダウンロードする

次の手順では、git コマンドライン ツールを使用してサンプルコードのローカルコピーを作成する方法を示します。

サンプルコードをダウンロードするには:

  1. 次のコマンドを使用して、git リポジトリのクローンを作成します。
    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. 必要に応じて、Git インスタンスをスパース チェックアウトを使用するように設定し、Pose Landscapeer サンプルアプリのファイルのみを取得します。
    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/pose_landmarker/android
    

サンプルコードのローカル バージョンを作成したら、Android Studio にプロジェクトをインポートしてアプリを実行できます。手順については、Android の設定ガイドをご覧ください。

主要コンポーネント

次のファイルには、このポーズ ランドマーク サンプル アプリケーションの重要なコードが含まれています。

  • PoseLandmarkerHelper.kt - ポーズ ランドマークを初期化し、モデルを処理して選択を委任します。
  • CameraFragment.kt - デバイスのカメラを処理し、画像と動画の入力データを処理します。
  • GalleryFragment.kt - OverlayView を操作して、出力画像または動画を表示します。
  • OverlayView.kt - 検出されたポーズの表示を実装します。

セットアップ

このセクションでは、ポーズ ランドマークャーの使用に特化した開発環境とコード プロジェクトをセットアップする主な手順について説明します。プラットフォームのバージョン要件など、MediaPipe タスクを使用するための開発環境の設定に関する一般的な情報については、Android の設定ガイドをご覧ください。

依存関係

ポーズのランドマーク タスクでは、com.google.mediapipe:tasks-vision ライブラリを使用します。この依存関係を Android アプリの build.gradle ファイルに追加します。

dependencies {
    implementation 'com.google.mediapipe:tasks-vision:latest.release'
}

モデル

MediaPipe のポーズのランドマーク タスクには、このタスクと互換性のあるトレーニング済みモデルバンドルが必要です。ポーズのランドマークで利用可能なトレーニング済みモデルの詳細については、タスクの概要のモデル セクションをご覧ください。

モデルを選択してダウンロードし、プロジェクト ディレクトリに保存します。

<dev-project-root>/src/main/assets

ModelAssetPath パラメータ内にモデルのパスを指定します。このサンプルコードでは、モデルは PoseLandmarkerHelper.kt ファイルで定義されています。

val modelName = "pose_landmarker_lite.task"
baseOptionsBuilder.setModelAssetPath(modelName)

タスクを作成する

MediaPipe のポーズのランドマーク タスクでは、createFromOptions() 関数を使用してタスクをセットアップします。createFromOptions() 関数は、構成オプションの値を受け入れます。構成オプションの詳細については、構成オプションをご覧ください。

ポーズのランドマークは、静止画像、動画ファイル、ライブ動画ストリームの入力データ型をサポートしています。タスクの作成時に、入力データ型に対応する実行モードを指定する必要があります。入力データ型のタブを選択して、タスクの作成方法を確認します。

画像

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder = 
    poseLandmarker.poseLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinPoseDetectionConfidence(minPoseDetectionConfidence)
        .setMinTrackingConfidence(minPoseTrackingConfidence)
        .setMinPosePresenceConfidence(minposePresenceConfidence)
        .setNumPoses(maxNumPoses)
        .setRunningMode(RunningMode.IMAGE)

val options = optionsBuilder.build()
poseLandmarker = poseLandmarker.createFromOptions(context, options)
    

動画

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder = 
    poseLandmarker.poseLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinPoseDetectionConfidence(minPoseDetectionConfidence)
        .setMinTrackingConfidence(minPoseTrackingConfidence)
        .setMinPosePresenceConfidence(minposePresenceConfidence)
        .setNumPoses(maxNumPoses)
        .setRunningMode(RunningMode.VIDEO)

val options = optionsBuilder.build()
poseLandmarker = poseLandmarker.createFromOptions(context, options)
    

ライブ配信

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder = 
    poseLandmarker.poseLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinPoseDetectionConfidence(minPoseDetectionConfidence)
        .setMinTrackingConfidence(minPoseTrackingConfidence)
        .setMinPosePresenceConfidence(minposePresenceConfidence)
        .setNumPoses(maxNumPoses)
        .setResultListener(this::returnLivestreamResult)
        .setErrorListener(this::returnLivestreamError)
        .setRunningMode(RunningMode.LIVE_STREAM)

val options = optionsBuilder.build()
poseLandmarker = poseLandmarker.createFromOptions(context, options)
    

ポーズのランドマークのサンプルコードを実装すると、ユーザーは処理モードを切り替えることができます。このアプローチでは、タスク作成コードが複雑になり、実際のユースケースには適さない可能性があります。このコードは、PoseLandmarkerHelper.kt ファイルの setupPoseLandmarker() 関数で確認できます。

構成オプション

このタスクには、Android アプリ用に次の構成オプションがあります。

オプション名 説明 値の範囲 デフォルト値
runningMode タスクの実行モードを設定します。モードは 3 つあります。

IMAGE: 単一の画像入力のモード。

VIDEO: 動画のデコードされたフレームのモード。

LIVE_STREAM: カメラからのデータなど、入力データのライブストリームのモード。このモードでは、resultListener を呼び出して、結果を非同期で受け取るリスナーをセットアップする必要があります。
{IMAGE, VIDEO, LIVE_STREAM} IMAGE
numposes ポーズのランドマークで検出できるポーズの最大数。 Integer > 0 1
minPoseDetectionConfidence 成功したとみなされる姿勢検出の最小信頼スコア。 Float [0.0,1.0] 0.5
minPosePresenceConfidence 姿勢ランドマーク検出におけるポーズ存在スコアの最小信頼スコア。 Float [0.0,1.0] 0.5
minTrackingConfidence 成功したとみなされるポーズ追跡の最小信頼スコア。 Float [0.0,1.0] 0.5
outputSegmentationMasks 検出されたポーズのセグメンテーション マスクを姿勢ランドマーク er が出力するかどうか。 Boolean False
resultListener Pose Landscapeer がライブ ストリーム モードのときに、ランドマーク マーキングの結果を非同期で受け取るように結果リスナーを設定します。 実行モードが LIVE_STREAM に設定されている場合にのみ使用できます ResultListener N/A
errorListener オプションのエラーリスナーを設定します。 ErrorListener N/A

データの準備

Pose Landscapeer は、画像、動画ファイル、ライブ動画ストリームに対応しています。このタスクは、サイズ変更、回転、値の正規化などのデータ入力の前処理を処理します。

次のコードは、処理するデータを渡す方法を示しています。これらのサンプルには、画像、動画ファイル、ライブ動画ストリームのデータを処理する方法に関する詳細が含まれています。

画像

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(image).build()
    

動画

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

val argb8888Frame =
    if (frame.config == Bitmap.Config.ARGB_8888) frame
    else frame.copy(Bitmap.Config.ARGB_8888, false)

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(argb8888Frame).build()
    

ライブ配信

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(rotatedBitmap).build()
    

ポーズのランドマークのサンプルコードでは、データの準備は PoseLandmarkerHelper.kt ファイルで処理されます。

タスクを実行する

扱うデータの種類に応じて、そのデータ型に固有の poseLandmarker.detect...() メソッドを使用します。個々の画像には detect()、動画ファイル内のフレームには detectForVideo()、動画ストリームには detectAsync() を使用します。動画ストリームに対して検出を実行する場合は、ユーザーの介入スレッドがブロックされないように、別のスレッドで検出を実行してください。

次のコードサンプルは、さまざまなデータモードでポーズ ランドマークャーを実行する方法の簡単な例を示しています。

画像

val result = poseLandmarker.detect(mpImage)
    

動画

val timestampMs = i * inferenceIntervalMs

poseLandmarker.detectForVideo(mpImage, timestampMs)
    .let { detectionResult ->
        resultList.add(detectionResult)
    }
    

ライブ配信

val mpImage = BitmapImageBuilder(rotatedBitmap).build()
val frameTime = SystemClock.uptimeMillis()

poseLandmarker.detectAsync(mpImage, frameTime)
    

次の点にご留意ください。

  • 動画モードまたはライブ ストリーム モードで実行する場合は、入力フレームのタイムスタンプをポーズ ランドマーク タスクに提供する必要があります。
  • 画像モードまたは動画モードで実行する場合、ポーズのランドマーク タスクは入力画像またはフレームの処理を完了するまで現在のスレッドをブロックします。ユーザーの介入がブロックされないように、処理はバックグラウンド スレッドで実行します。
  • ライブ ストリーム モードで実行すると、ポーズのランドマーク タスクはすぐに返され、現在のスレッドはブロックされません。入力フレームの処理が完了するたびに、検出結果とともに結果リスナーを呼び出します。

姿勢のランドマーク er サンプルコードでは、detectdetectForVideodetectAsync の各関数は PoseLandmarkerHelper.kt ファイルで定義されています。

結果を処理して表示する

ポーズのランドマークは、検出を実行するたびに poseLandmarkerResult オブジェクトを返します。結果オブジェクトには、各ポーズ ランドマークの座標が含まれます。

このタスクからの出力データの例を次に示します。

PoseLandmarkerResult:
  Landmarks:
    Landmark #0:
      x            : 0.638852
      y            : 0.671197
      z            : 0.129959
      visibility   : 0.9999997615814209
      presence     : 0.9999984502792358
    Landmark #1:
      x            : 0.634599
      y            : 0.536441
      z            : -0.06984
      visibility   : 0.999909
      presence     : 0.999958
    ... (33 landmarks per pose)
  WorldLandmarks:
    Landmark #0:
      x            : 0.067485
      y            : 0.031084
      z            : 0.055223
      visibility   : 0.9999997615814209
      presence     : 0.9999984502792358
    Landmark #1:
      x            : 0.063209
      y            : -0.00382
      z            : 0.020920
      visibility   : 0.999976
      presence     : 0.999998
    ... (33 world landmarks per pose)
  SegmentationMasks:
    ... (pictured below)

出力には、各ランドマークの正規化座標(Landmarks)と世界座標(WorldLandmarks)の両方が含まれます。

出力には、次の正規化された座標(Landmarks)が含まれます。

  • xy: 画像の幅(x)と高さ(y)で正規化された 0.0 ~ 1.0 のランドマーク座標。

  • z: ランドマークの深さ。ヒップの中間点の深さを原点とします。値が小さいほど、ランドマークがカメラに近づきます。z の大きさは、x とほぼ同じスケールを使用します。

  • visibility: ランドマークが画像内に表示される可能性。

出力には次のワールド座標(WorldLandmarks)が含まれます。

  • xyz: ヒップの中心を原点とする実際の 3 次元座標(メートル単位)。

  • visibility: ランドマークが画像内に表示される可能性。

次の図は、タスク出力を可視化したものです。

オプションのセグメンテーション マスクは、各ピクセルが検出された人物に属する可能性を表します。次の画像は、タスク出力のセグメンテーション マスクです。

ポーズのランドマークのサンプルコードは、タスクから返された結果を表示する方法を示しています。詳しくは、OverlayView クラスをご覧ください。