MediaPipe Pose Landmarker タスクでは、画像内の人体のランドマークを検出したり、 動画をご覧ください。このタスクを使用して、主な身体の位置の特定、姿勢の分析、 動きを分類できますこのタスクでは、次の条件を満たす機械学習(ML)モデルを使用します。 単一の画像または動画を使用できますこのタスクは、身体ポーズのランドマークを画像に出力します。 3 次元の世界座標で表します。
この手順で説明するコードサンプルは、 GitHub。 機能、モデル、構成オプションの詳細については、 概要をご覧ください。
サンプルコード
MediaPipe Tasks のサンプルコードは、ポーズの LandMarker を簡単な実装したものです。 アプリこの例では、物理的な Android デバイスのカメラを使用して、 連続する動画ストリームでポーズを検出します。また、 デバイスのギャラリーから画像と動画を抽出できます。
独自の Android アプリの出発点としてアプリを使用することも、アプリ自体に言及することもできます。 変更する際の注意点があります。「Pose Landmarker」サンプルコードは GitHub。
コードをダウンロードする
次の手順では、サンプルのローカルコピーを作成する方法を示します。 git コマンドライン ツールを使用してコードを実行します。
<ph type="x-smartling-placeholder">サンプルコードをダウンロードするには:
- 次のコマンドを使用して Git リポジトリのクローンを作成します。
git clone https://github.com/google-ai-edge/mediapipe-samples
- 必要に応じて、スパース チェックアウトを使用するように Git インスタンスを構成し、
次のサンプルは、Pose Landmarker サンプルアプリのファイルのみに対応しています。
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/pose_landmarker/android
サンプルコードのローカル バージョンを作成したら、プロジェクトをインポートできます。 アプリを実行します。手順については、セットアップ ガイド: Android。
主要コンポーネント
次のファイルには、このポーズ ランドマークの例に不可欠なコードが含まれています。 アプリケーション:
- PoseLandmarkerHelper.kt - ポーズ ランドマーク ツールを初期化し、モデルとデリゲートを処理します。 選択します。
- CameraFragment.kt - デバイスのカメラを処理し、画像と動画の入力データを処理します。
- GalleryFragment.kt -
OverlayView
を操作して、出力画像または動画を表示します。 - OverlayView.kt - 検出されたポーズの表示を実装します。
セットアップ
このセクションでは、開発環境をセットアップする主な手順と 特に Pose Landmarker を使用するためのコード プロジェクトがありました。一般的な情報については、 MediaPipe タスクを使用するための開発環境の設定 プラットフォーム バージョンの要件については、 Android。
<ph type="x-smartling-placeholder">依存関係
Pose Landmarker タスクでは com.google.mediapipe:tasks-vision
ライブラリを使用します。追加
これを Android アプリの build.gradle
ファイルに追加します。
dependencies {
implementation 'com.google.mediapipe:tasks-vision:latest.release'
}
モデル
MediaPipe Pose Landmarker タスクには、以下と互換性のあるトレーニング済みモデルバンドルが必要です。 できます。位置マーカーで利用可能なトレーニング済みモデルについて詳しくは、 タスクの概要のモデル セクションをご覧ください。
モデルを選択してダウンロードし、プロジェクト ディレクトリに保存します。
<dev-project-root>/src/main/assets
ModelAssetPath
パラメータ内でモデルのパスを指定します。
サンプルコードの場合、モデルは
PoseLandmarkerHelper.kt
ファイル:
val modelName = "pose_landmarker_lite.task"
baseOptionsBuilder.setModelAssetPath(modelName)
タスクを作成する
MediaPipe ポーズ ランドマーカー タスクでは、createFromOptions()
関数を使用して
タスクを実行します。createFromOptions()
関数は構成の値を受け入れます。
。構成オプションの詳細については、構成
オプションをご覧ください。
ポーズのマーカーは、静止画像と動画という入力データタイプをサポートしています。 ファイル、ライブ動画ストリームなどです。実行モードを指定する必要があります タスクの作成時に、入力データ型に対応する値を宣言します。タブを選択 タスクの作成方法を確認してください。
画像
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = poseLandmarker.poseLandmarkerOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinPoseDetectionConfidence(minPoseDetectionConfidence) .setMinTrackingConfidence(minPoseTrackingConfidence) .setMinPosePresenceConfidence(minposePresenceConfidence) .setNumPoses(maxNumPoses) .setRunningMode(RunningMode.IMAGE) val options = optionsBuilder.build() poseLandmarker = poseLandmarker.createFromOptions(context, options)
動画
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = poseLandmarker.poseLandmarkerOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinPoseDetectionConfidence(minPoseDetectionConfidence) .setMinTrackingConfidence(minPoseTrackingConfidence) .setMinPosePresenceConfidence(minposePresenceConfidence) .setNumPoses(maxNumPoses) .setRunningMode(RunningMode.VIDEO) val options = optionsBuilder.build() poseLandmarker = poseLandmarker.createFromOptions(context, options)
ライブ配信
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = poseLandmarker.poseLandmarkerOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinPoseDetectionConfidence(minPoseDetectionConfidence) .setMinTrackingConfidence(minPoseTrackingConfidence) .setMinPosePresenceConfidence(minposePresenceConfidence) .setNumPoses(maxNumPoses) .setResultListener(this::returnLivestreamResult) .setErrorListener(this::returnLivestreamError) .setRunningMode(RunningMode.LIVE_STREAM) val options = optionsBuilder.build() poseLandmarker = poseLandmarker.createFromOptions(context, options)
Pose Landmarker のサンプル コードを実装することで、
処理モードを選択できますこのアプローチでは、タスク作成コードが複雑になり、
ユースケースに適さない場合がありますこのコードは
setupPoseLandmarker()
関数を次の
PoseLandmarkerHelper.kt
表示されます。
構成オプション
このタスクには、Android アプリ用に次の構成オプションがあります。
オプション名 | 説明 | 値の範囲 | デフォルト値 |
---|---|---|---|
runningMode |
タスクの実行モードを設定します。3 つの
モード: IMAGE: 単一画像入力のモード。 VIDEO: 動画のデコードされたフレームのモード。 LIVE_STREAM: 入力のライブ配信のモード カメラからのデータなどです。 このモードでは、resultListener は 結果を受け取るリスナーを設定するために呼び出されます。 使用できます。 |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
numposes |
地面マーカーのポーズ。 | Integer > 0 |
1 |
minPoseDetectionConfidence |
姿勢検出に必要な最小信頼スコア 成功したとみなされます。 | Float [0.0,1.0] |
0.5 |
minPosePresenceConfidence |
ポーズの有無に関する最小信頼スコア スコアを記録しました。 | Float [0.0,1.0] |
0.5 |
minTrackingConfidence |
ポーズ トラッキングの最小信頼スコア 成功とみなされます。 | Float [0.0,1.0] |
0.5 |
outputSegmentationMasks |
位置マーカーのセグメンテーション マスクが、検出された要素に対してセグメンテーション マスクを出力するかどうか ポーズを決めます。 | Boolean |
False |
resultListener |
ランドマークの結果を受け取るように結果リスナーを設定します。
Pose Landmarker がライブ ストリーム モードのときに非同期で配信されます。
実行モードが LIVE_STREAM に設定されている場合にのみ使用できます |
ResultListener |
N/A |
errorListener |
オプションのエラーリスナーを設定します。 | ErrorListener |
N/A |
データの準備
Pose Landmarker は、画像、動画ファイル、ライブ動画ストリームで動作します。タスク サイズ変更、回転、値を含むデータ入力の前処理を処理 説明します。
次のコードは、処理のためにデータを引き渡す方法を示しています。これらの サンプルには、画像、動画ファイル、ライブ ストリーミング データ、 動画ストリーム。
画像
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(image).build()
動画
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage val argb8888Frame = if (frame.config == Bitmap.Config.ARGB_8888) frame else frame.copy(Bitmap.Config.ARGB_8888, false) // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(argb8888Frame).build()
ライブ配信
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(rotatedBitmap).build()
「Pose Landmarker」サンプルコードでは、
PoseLandmarkerHelper.kt
表示されます。
タスクを実行する
扱うデータのタイプに応じて、
そのデータ型に固有の poseLandmarker.detect...()
メソッドを使用します。使用
個々の画像の場合は detect()
、動画ファイル内のフレームの場合は detectForVideo()
、
動画ストリームの場合は detectAsync()
です。Cloud Storage バケットに
検出を別のスレッドで実行して、この問題を回避してください。
ブロックします。
次のコードサンプルは、姿勢のマーカーを実行する方法の簡単な例を示しています。 さまざまなデータモードで
画像
val result = poseLandmarker.detect(mpImage)
動画
val timestampMs = i * inferenceIntervalMs poseLandmarker.detectForVideo(mpImage, timestampMs) .let { detectionResult -> resultList.add(detectionResult) }
ライブ配信
val mpImage = BitmapImageBuilder(rotatedBitmap).build() val frameTime = SystemClock.uptimeMillis() poseLandmarker.detectAsync(mpImage, frameTime)
次の点にご留意ください。
- 動画モードまたはライブ配信モードで実行する場合は、 Pose Landmarker タスクへの入力フレームのタイムスタンプ。
- 画像モードまたは動画モードで実行すると、Pose Landmarker タスクがブロックされます。 入力画像やフレームの処理が完了するまで、現在のスレッドを待機状態にします。宛先 ユーザーの介入をブロックせず、バックグラウンドで処理を実行 使用します。
- ライブ ストリーム モードで実行している場合、[Pose LandMarker] タスクが 現在のスレッドをブロックしません。このメソッドは、 完了するたびに、その検出結果が 表示されます。
位置マーカーのサンプルコードでは、detect
、detectForVideo
、
detectAsync
関数は、
PoseLandmarkerHelper.kt
表示されます。
結果の処理と表示
ポーズのランドマーカーは、検出ごとに poseLandmarkerResult
オブジェクトを返します。
あります。結果のオブジェクトには、各ポーズ ランドマークの座標が含まれます。
このタスクからの出力データの例を次に示します。
PoseLandmarkerResult:
Landmarks:
Landmark #0:
x : 0.638852
y : 0.671197
z : 0.129959
visibility : 0.9999997615814209
presence : 0.9999984502792358
Landmark #1:
x : 0.634599
y : 0.536441
z : -0.06984
visibility : 0.999909
presence : 0.999958
... (33 landmarks per pose)
WorldLandmarks:
Landmark #0:
x : 0.067485
y : 0.031084
z : 0.055223
visibility : 0.9999997615814209
presence : 0.9999984502792358
Landmark #1:
x : 0.063209
y : -0.00382
z : 0.020920
visibility : 0.999976
presence : 0.999998
... (33 world landmarks per pose)
SegmentationMasks:
... (pictured below)
出力には、正規化された座標(Landmarks
)と世界の両方が含まれます。
各ランドマークの座標(WorldLandmarks
)があります。
出力には、次の正規化された座標(Landmarks
)が含まれます。
x
、y
: 0.0 ~ 1.0 の範囲で正規化されたランドマーク座標 画像の幅(x
)と高さ(y
)を指定します。z
: ランドマークの深さ。腰の中間点の深さが 含まれます。値が小さいほど、ランドマークがカメラに近づきます。「 z の大きさはx
とほぼ同じスケールを使用します。visibility
: 画像内にランドマークが見える可能性。
出力には、次のワールド座標(WorldLandmarks
)が含まれます。
x
、y
、z
: 実世界の 3 次元座標(メートル単位)。 中間点を起点とします。visibility
: 画像内にランドマークが見える可能性。
次の図は、タスク出力を可視化したものです。
セグメンテーション マスク(省略可)は、各ピクセルが帰属する可能性を表します。 通知します。次の画像は、画像のセグメンテーション マスクです。 タスクの出力:
「Pose Landmarker」サンプルコードは、返された結果を表示する方法を示しています。
タスクの詳細については、
OverlayView
クラスをご覧ください。