姿勢ランドマーク検出ガイド(Android)

MediaPipe Pose Landmarker タスクでは、画像内の人体のランドマークを検出したり、 動画をご覧ください。このタスクを使用して、主な身体の位置の特定、姿勢の分析、 動きを分類できますこのタスクでは、次の条件を満たす機械学習(ML)モデルを使用します。 単一の画像または動画を使用できますこのタスクは、身体ポーズのランドマークを画像に出力します。 3 次元の世界座標で表します。

この手順で説明するコードサンプルは、 GitHub。 機能、モデル、構成オプションの詳細については、 概要をご覧ください。

サンプルコード

MediaPipe Tasks のサンプルコードは、ポーズの LandMarker を簡単な実装したものです。 アプリこの例では、物理的な Android デバイスのカメラを使用して、 連続する動画ストリームでポーズを検出します。また、 デバイスのギャラリーから画像と動画を抽出できます。

独自の Android アプリの出発点としてアプリを使用することも、アプリ自体に言及することもできます。 変更する際の注意点があります。「Pose Landmarker」サンプルコードは GitHub

コードをダウンロードする

次の手順では、サンプルのローカルコピーを作成する方法を示します。 git コマンドライン ツールを使用してコードを実行します。

<ph type="x-smartling-placeholder">

サンプルコードをダウンロードするには:

  1. 次のコマンドを使用して Git リポジトリのクローンを作成します。
    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. 必要に応じて、スパース チェックアウトを使用するように Git インスタンスを構成し、 次のサンプルは、Pose Landmarker サンプルアプリのファイルのみに対応しています。
    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/pose_landmarker/android
    

サンプルコードのローカル バージョンを作成したら、プロジェクトをインポートできます。 アプリを実行します。手順については、セットアップ ガイド: Android

主要コンポーネント

次のファイルには、このポーズ ランドマークの例に不可欠なコードが含まれています。 アプリケーション:

  • PoseLandmarkerHelper.kt - ポーズ ランドマーク ツールを初期化し、モデルとデリゲートを処理します。 選択します。
  • CameraFragment.kt - デバイスのカメラを処理し、画像と動画の入力データを処理します。
  • GalleryFragment.kt - OverlayView を操作して、出力画像または動画を表示します。
  • OverlayView.kt - 検出されたポーズの表示を実装します。

セットアップ

このセクションでは、開発環境をセットアップする主な手順と 特に Pose Landmarker を使用するためのコード プロジェクトがありました。一般的な情報については、 MediaPipe タスクを使用するための開発環境の設定 プラットフォーム バージョンの要件については、 Android

<ph type="x-smartling-placeholder">

依存関係

Pose Landmarker タスクでは com.google.mediapipe:tasks-vision ライブラリを使用します。追加 これを Android アプリの build.gradle ファイルに追加します。

dependencies {
    implementation 'com.google.mediapipe:tasks-vision:latest.release'
}

モデル

MediaPipe Pose Landmarker タスクには、以下と互換性のあるトレーニング済みモデルバンドルが必要です。 できます。位置マーカーで利用可能なトレーニング済みモデルについて詳しくは、 タスクの概要のモデル セクションをご覧ください。

モデルを選択してダウンロードし、プロジェクト ディレクトリに保存します。

<dev-project-root>/src/main/assets

ModelAssetPath パラメータ内でモデルのパスを指定します。 サンプルコードの場合、モデルは PoseLandmarkerHelper.kt ファイル:

val modelName = "pose_landmarker_lite.task"
baseOptionsBuilder.setModelAssetPath(modelName)

タスクを作成する

MediaPipe ポーズ ランドマーカー タスクでは、createFromOptions() 関数を使用して タスクを実行します。createFromOptions() 関数は構成の値を受け入れます。 。構成オプションの詳細については、構成 オプションをご覧ください。

ポーズのマーカーは、静止画像と動画という入力データタイプをサポートしています。 ファイル、ライブ動画ストリームなどです。実行モードを指定する必要があります タスクの作成時に、入力データ型に対応する値を宣言します。タブを選択 タスクの作成方法を確認してください。

画像

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder = 
    poseLandmarker.poseLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinPoseDetectionConfidence(minPoseDetectionConfidence)
        .setMinTrackingConfidence(minPoseTrackingConfidence)
        .setMinPosePresenceConfidence(minposePresenceConfidence)
        .setNumPoses(maxNumPoses)
        .setRunningMode(RunningMode.IMAGE)

val options = optionsBuilder.build()
poseLandmarker = poseLandmarker.createFromOptions(context, options)
    

動画

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder = 
    poseLandmarker.poseLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinPoseDetectionConfidence(minPoseDetectionConfidence)
        .setMinTrackingConfidence(minPoseTrackingConfidence)
        .setMinPosePresenceConfidence(minposePresenceConfidence)
        .setNumPoses(maxNumPoses)
        .setRunningMode(RunningMode.VIDEO)

val options = optionsBuilder.build()
poseLandmarker = poseLandmarker.createFromOptions(context, options)
    

ライブ配信

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder = 
    poseLandmarker.poseLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinPoseDetectionConfidence(minPoseDetectionConfidence)
        .setMinTrackingConfidence(minPoseTrackingConfidence)
        .setMinPosePresenceConfidence(minposePresenceConfidence)
        .setNumPoses(maxNumPoses)
        .setResultListener(this::returnLivestreamResult)
        .setErrorListener(this::returnLivestreamError)
        .setRunningMode(RunningMode.LIVE_STREAM)

val options = optionsBuilder.build()
poseLandmarker = poseLandmarker.createFromOptions(context, options)
    

Pose Landmarker のサンプル コードを実装することで、 処理モードを選択できますこのアプローチでは、タスク作成コードが複雑になり、 ユースケースに適さない場合がありますこのコードは setupPoseLandmarker() 関数を次の PoseLandmarkerHelper.kt 表示されます。

構成オプション

このタスクには、Android アプリ用に次の構成オプションがあります。

オプション名 説明 値の範囲 デフォルト値
runningMode タスクの実行モードを設定します。3 つの モード:

IMAGE: 単一画像入力のモード。

VIDEO: 動画のデコードされたフレームのモード。

LIVE_STREAM: 入力のライブ配信のモード カメラからのデータなどです。 このモードでは、resultListener は 結果を受け取るリスナーを設定するために呼び出されます。 使用できます。
{IMAGE, VIDEO, LIVE_STREAM} IMAGE
numposes 地面マーカーのポーズ。 Integer > 0 1
minPoseDetectionConfidence 姿勢検出に必要な最小信頼スコア 成功したとみなされます。 Float [0.0,1.0] 0.5
minPosePresenceConfidence ポーズの有無に関する最小信頼スコア スコアを記録しました。 Float [0.0,1.0] 0.5
minTrackingConfidence ポーズ トラッキングの最小信頼スコア 成功とみなされます。 Float [0.0,1.0] 0.5
outputSegmentationMasks 位置マーカーのセグメンテーション マスクが、検出された要素に対してセグメンテーション マスクを出力するかどうか ポーズを決めます。 Boolean False
resultListener ランドマークの結果を受け取るように結果リスナーを設定します。 Pose Landmarker がライブ ストリーム モードのときに非同期で配信されます。 実行モードが LIVE_STREAM に設定されている場合にのみ使用できます ResultListener N/A
errorListener オプションのエラーリスナーを設定します。 ErrorListener N/A

データの準備

Pose Landmarker は、画像、動画ファイル、ライブ動画ストリームで動作します。タスク サイズ変更、回転、値を含むデータ入力の前処理を処理 説明します。

次のコードは、処理のためにデータを引き渡す方法を示しています。これらの サンプルには、画像、動画ファイル、ライブ ストリーミング データ、 動画ストリーム。

画像

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(image).build()
    

動画

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

val argb8888Frame =
    if (frame.config == Bitmap.Config.ARGB_8888) frame
    else frame.copy(Bitmap.Config.ARGB_8888, false)

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(argb8888Frame).build()
    

ライブ配信

import com.google.mediapipe.framework.image.BitmapImageBuilder
import com.google.mediapipe.framework.image.MPImage

// Convert the input Bitmap object to an MPImage object to run inference
val mpImage = BitmapImageBuilder(rotatedBitmap).build()
    

「Pose Landmarker」サンプルコードでは、 PoseLandmarkerHelper.kt 表示されます。

タスクを実行する

扱うデータのタイプに応じて、 そのデータ型に固有の poseLandmarker.detect...() メソッドを使用します。使用 個々の画像の場合は detect()、動画ファイル内のフレームの場合は detectForVideo()、 動画ストリームの場合は detectAsync() です。Cloud Storage バケットに 検出を別のスレッドで実行して、この問題を回避してください。 ブロックします。

次のコードサンプルは、姿勢のマーカーを実行する方法の簡単な例を示しています。 さまざまなデータモードで

画像

val result = poseLandmarker.detect(mpImage)
    

動画

val timestampMs = i * inferenceIntervalMs

poseLandmarker.detectForVideo(mpImage, timestampMs)
    .let { detectionResult ->
        resultList.add(detectionResult)
    }
    

ライブ配信

val mpImage = BitmapImageBuilder(rotatedBitmap).build()
val frameTime = SystemClock.uptimeMillis()

poseLandmarker.detectAsync(mpImage, frameTime)
    

次の点にご留意ください。

  • 動画モードまたはライブ配信モードで実行する場合は、 Pose Landmarker タスクへの入力フレームのタイムスタンプ。
  • 画像モードまたは動画モードで実行すると、Pose Landmarker タスクがブロックされます。 入力画像やフレームの処理が完了するまで、現在のスレッドを待機状態にします。宛先 ユーザーの介入をブロックせず、バックグラウンドで処理を実行 使用します。
  • ライブ ストリーム モードで実行している場合、[Pose LandMarker] タスクが 現在のスレッドをブロックしません。このメソッドは、 完了するたびに、その検出結果が 表示されます。

位置マーカーのサンプルコードでは、detectdetectForVideodetectAsync 関数は、 PoseLandmarkerHelper.kt 表示されます。

結果の処理と表示

ポーズのランドマーカーは、検出ごとに poseLandmarkerResult オブジェクトを返します。 あります。結果のオブジェクトには、各ポーズ ランドマークの座標が含まれます。

このタスクからの出力データの例を次に示します。

PoseLandmarkerResult:
  Landmarks:
    Landmark #0:
      x            : 0.638852
      y            : 0.671197
      z            : 0.129959
      visibility   : 0.9999997615814209
      presence     : 0.9999984502792358
    Landmark #1:
      x            : 0.634599
      y            : 0.536441
      z            : -0.06984
      visibility   : 0.999909
      presence     : 0.999958
    ... (33 landmarks per pose)
  WorldLandmarks:
    Landmark #0:
      x            : 0.067485
      y            : 0.031084
      z            : 0.055223
      visibility   : 0.9999997615814209
      presence     : 0.9999984502792358
    Landmark #1:
      x            : 0.063209
      y            : -0.00382
      z            : 0.020920
      visibility   : 0.999976
      presence     : 0.999998
    ... (33 world landmarks per pose)
  SegmentationMasks:
    ... (pictured below)

出力には、正規化された座標(Landmarks)と世界の両方が含まれます。 各ランドマークの座標(WorldLandmarks)があります。

出力には、次の正規化された座標(Landmarks)が含まれます。

  • xy: 0.0 ~ 1.0 の範囲で正規化されたランドマーク座標 画像の幅(x)と高さ(y)を指定します。

  • z: ランドマークの深さ。腰の中間点の深さが 含まれます。値が小さいほど、ランドマークがカメラに近づきます。「 z の大きさは x とほぼ同じスケールを使用します。

  • visibility: 画像内にランドマークが見える可能性。

出力には、次のワールド座標(WorldLandmarks)が含まれます。

  • xyz: 実世界の 3 次元座標(メートル単位)。 中間点を起点とします。

  • visibility: 画像内にランドマークが見える可能性。

次の図は、タスク出力を可視化したものです。

セグメンテーション マスク(省略可)は、各ピクセルが帰属する可能性を表します。 通知します。次の画像は、画像のセグメンテーション マスクです。 タスクの出力:

「Pose Landmarker」サンプルコードは、返された結果を表示する方法を示しています。 タスクの詳細については、 OverlayView クラスをご覧ください。