MediaPipe 顔ランドマーク タスクを使用すると、画像や動画内の顔のランドマークと表情を検出できます。このタスクを使用して、人間の顔の表情を識別し、顔のフィルタとエフェクトを適用して、仮想アバターを作成できます。このタスクでは、単一の画像または画像の連続ストリームを使用できる機械学習(ML)モデルを使用します。このタスクは、3 次元の顔のランドマーク、詳細な顔の表面をリアルタイムで推測するためのブレンドシェイプ スコア(顔の表情を表す係数)、エフェクトのレンダリングに必要な変換を行うための変換行列を出力します。
この手順で説明されているコードサンプルは、GitHub で入手できます。このタスクの機能、モデル、構成オプションの詳細については、概要をご覧ください。
サンプルコード
MediaPipe Tasks のサンプルコードは、Android 用の顔のランドマーク アプリの簡単な実装です。この例では、物理的な Android デバイスのカメラを使用して、連続する動画ストリームから顔を検出します。また、デバイス ギャラリーから画像や動画内の顔を検出することもできます。
このアプリは、独自の Android アプリを作成する際の出発点として使用できます。また、既存のアプリを変更するときにアプリを参照することもできます。Face Landscapeer のサンプルコードは、GitHub でホストされています。
コードをダウンロードする
次の手順では、git コマンドライン ツールを使用してサンプルコードのローカルコピーを作成する方法を示します。
サンプルコードをダウンロードするには:
- 次のコマンドを使用して、git リポジトリのクローンを作成します。
git clone https://github.com/google-ai-edge/mediapipe-samples
- 必要に応じて、スパース チェックアウトを使用するように Git インスタンスを設定し、Face Landscapeer サンプルアプリのファイルのみを取得します。
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/face_landmarker/android
サンプルコードのローカル バージョンを作成したら、Android Studio にプロジェクトをインポートしてアプリを実行できます。手順については、Android の設定ガイドをご覧ください。
主要コンポーネント
次のファイルには、この顔ランドマークのサンプル アプリケーションの重要なコードが含まれています。
- FaceLandmarkerHelper.kt - 顔ランドマークを初期化し、モデルを処理して選択を委任します。
- CameraFragment.kt - デバイスのカメラを処理し、画像と動画の入力データを処理します。
- GalleryFragment.kt -
OverlayView
を操作して、出力画像または動画を表示します。 - OverlayView.kt - 検出された顔の顔メッシュを使用したディスプレイを実装します。
セットアップ
このセクションでは、Face Landscapeer 専用に開発環境とコード プロジェクトをセットアップする主な手順について説明します。プラットフォームのバージョン要件など、MediaPipe タスクを使用するための開発環境の設定に関する一般的な情報については、Android の設定ガイドをご覧ください。
依存関係
顔のランドマーク タスクでは、com.google.mediapipe:tasks-vision
ライブラリを使用します。この依存関係を Android アプリの build.gradle
ファイルに追加します。
dependencies {
implementation 'com.google.mediapipe:tasks-vision:latest.release'
}
モデル
MediaPipe Face Landscapeer タスクには、このタスクと互換性のあるトレーニング済みモデルバンドルが必要です。顔のランドマーク機能で利用可能なトレーニング済みモデルの詳細については、タスクの概要のモデル セクションをご覧ください。
モデルを選択してダウンロードし、プロジェクト ディレクトリに保存します。
<dev-project-root>/src/main/assets
ModelAssetPath
パラメータ内にモデルのパスを指定します。このサンプルコードでは、モデルは FaceLandmarkerHelper.kt
ファイルで定義されています。
baseOptionsBuilder.setModelAssetPath(MP_FACE_LANDMARKER_TASK)
タスクを作成する
MediaPipe Face Landscapeer タスクは、createFromOptions()
関数を使用してタスクをセットアップします。createFromOptions()
関数は、構成オプションの値を受け入れます。構成オプションの詳細については、構成オプションをご覧ください。
顔のランドマーク ツールは、静止画像、動画ファイル、ライブ動画ストリームの入力データ型をサポートしています。タスクの作成時に、入力データ型に対応する実行モードを指定する必要があります。入力データ型のタブを選択して、タスクを作成して推論を実行する方法をご覧ください。
画像
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_FACE_LANDMARKER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceLandmarker.FaceLandmarkerOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinFaceDetectionConfidence(minFaceDetectionConfidence) .setMinTrackingConfidence(minFaceTrackingConfidence) .setMinFacePresenceConfidence(minFacePresenceConfidence) .setNumFaces(maxNumFaces) .setRunningMode(RunningMode.IMAGE) val options = optionsBuilder.build() FaceLandmarker = FaceLandmarker.createFromOptions(context, options)
動画
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_FACE_LANDMARKER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceLandmarker.FaceLandmarkerOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinFaceDetectionConfidence(minFaceDetectionConfidence) .setMinTrackingConfidence(minFaceTrackingConfidence) .setMinFacePresenceConfidence(minFacePresenceConfidence) .setNumFaces(maxNumFaces) .setRunningMode(RunningMode.VIDEO) val options = optionsBuilder.build() FaceLandmarker = FaceLandmarker.createFromOptions(context, options)
ライブ配信
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_FACE_LANDMARKER_TASK) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceLandmarker.FaceLandmarkerOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinFaceDetectionConfidence(minFaceDetectionConfidence) .setMinTrackingConfidence(minFaceTrackingConfidence) .setMinFacePresenceConfidence(minFacePresenceConfidence) .setNumFaces(maxNumFaces) .setResultListener(this::returnLivestreamResult) .setErrorListener(this::returnLivestreamError) .setRunningMode(RunningMode.LIVE_STREAM) val options = optionsBuilder.build() FaceLandmarker = FaceLandmarker.createFromOptions(context, options)
Face Landscapeer サンプルコードを実装すると、ユーザーは処理モードを切り替えることができます。このアプローチでは、タスク作成コードが複雑になり、実際のユースケースには適さない可能性があります。このコードは、FaceLandmarkerHelper.kt
ファイルの setupFaceLandmarker()
関数で確認できます。
構成オプション
このタスクには、Android アプリ用に次の構成オプションがあります。
オプション名 | 説明 | 値の範囲 | デフォルト値 |
---|---|---|---|
runningMode |
タスクの実行モードを設定します。モードは 3 つあります。 IMAGE: 単一の画像入力のモード。 VIDEO: 動画のデコードされたフレームのモード。 LIVE_STREAM: カメラからのデータなど、入力データのライブストリームのモード。このモードでは、resultListener を呼び出して、結果を非同期で受け取るリスナーをセットアップする必要があります。 |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
numFaces |
FaceLandmarker で検出できる顔の最大数。平滑化は、num_faces が 1 に設定されている場合にのみ適用されます。 |
Integer > 0 |
1 |
minFaceDetectionConfidence |
顔検出が成功したとみなす最小信頼スコア。 | Float [0.0,1.0] |
0.5 |
minFacePresenceConfidence |
顔ランドマーク検出における顔存在スコアの最小信頼スコア。 | Float [0.0,1.0] |
0.5 |
minTrackingConfidence |
顔トラッキングが成功したと判断される最小信頼スコア。 | Float [0.0,1.0] |
0.5 |
outputFaceBlendshapes |
顔のランドマークャーが顔のブレンドシェイプを出力するかどうか。顔のブレンドシェイプは、3D 顔モデルのレンダリングに使用されます。 | Boolean |
False |
outputFacialTransformationMatrixes |
FaceLandscapeer が顔変換行列を出力するかどうか。FaceDescriptorer は、このマトリックスを使用して、顔のランドマークを正規の顔モデルから検出された顔に変換します。これにより、ユーザーは検出されたランドマークにエフェクトを適用できます。 | Boolean |
False |
resultListener |
FaceLandscapeer がライブ ストリーム モードのときに、ランドマーク マーキングの結果を非同期で受け取るように結果リスナーを設定します。
実行モードが LIVE_STREAM に設定されている場合にのみ使用できます |
ResultListener |
N/A |
errorListener |
オプションのエラーリスナーを設定します。 | ErrorListener |
N/A |
データの準備
Face Landscapeer は、画像、動画ファイル、ライブ動画ストリームに対応しています。このタスクは、サイズ変更、回転、値の正規化などのデータ入力の前処理を処理します。
次のコードは、処理するデータを渡す方法を示しています。これらのサンプルには、画像、動画ファイル、ライブ動画ストリームのデータを処理する方法に関する詳細が含まれています。
画像
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(image).build()
動画
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage val argb8888Frame = if (frame.config == Bitmap.Config.ARGB_8888) frame else frame.copy(Bitmap.Config.ARGB_8888, false) // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(argb8888Frame).build()
ライブ配信
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(rotatedBitmap).build()
Face Landscapeer のサンプルコードでは、データの準備は FaceLandmarkerHelper.kt
ファイルで処理されます。
タスクを実行する
扱うデータの種類に応じて、そのデータ型に固有の FaceLandmarker.detect...()
メソッドを使用します。個々の画像には detect()
、動画ファイル内のフレームには detectForVideo()
、動画ストリームには detectAsync()
を使用します。動画ストリームに対して検出を実行する場合は、ユーザー インターフェース スレッドがブロックされないように、検出を別のスレッドで実行してください。
次のコードサンプルは、さまざまなデータモードで顔のランドマーク ツールを実行する方法の簡単な例を示しています。
画像
val result = FaceLandmarker.detect(mpImage)
動画
val timestampMs = i * inferenceIntervalMs FaceLandmarker.detectForVideo(mpImage, timestampMs) .let { detectionResult -> resultList.add(detectionResult) }
ライブ配信
val mpImage = BitmapImageBuilder(rotatedBitmap).build() val frameTime = SystemClock.uptimeMillis() FaceLandmarker.detectAsync(mpImage, frameTime)
次の点にご留意ください。
- 動画モードまたはライブ ストリーム モードで実行する場合は、入力フレームのタイムスタンプを顔のランドマーク タスクに渡す必要があります。
- 画像モードまたは動画モードで実行する場合、顔のランドマーク タスクは入力画像またはフレームの処理を完了するまで現在のスレッドをブロックします。ユーザー インターフェースがブロックされないように、処理はバックグラウンド スレッドで実行します。
- ライブ ストリーム モードで実行すると、顔のランドマーク タスクはすぐに返され、現在のスレッドはブロックされません。入力フレームの処理が完了するたびに、検出結果とともに結果リスナーを呼び出します。
顔のランドマークャーのサンプルコードでは、detect
、detectForVideo
、detectAsync
の各関数は FaceLandmarkerHelper.kt
ファイルで定義されています。
結果を処理して表示する
顔のランドマークは、検出を実行するたびに FaceLandmarkerResult
オブジェクトを返します。結果のオブジェクトには、検出された各顔の顔メッシュと、各顔ランドマークの座標が含まれます。オプションとして、結果オブジェクトには、顔の表情を示すブレンドシェイプと、検出されたランドマークに顔効果を適用するための顔の変換行列を含めることもできます。
このタスクからの出力データの例を次に示します。
FaceLandmarkerResult:
face_landmarks:
NormalizedLandmark #0:
x: 0.5971359014511108
y: 0.485361784696579
z: -0.038440968841314316
NormalizedLandmark #1:
x: 0.3302789330482483
y: 0.29289937019348145
z: -0.09489090740680695
... (478 landmarks for each face)
face_blendshapes:
browDownLeft: 0.8296722769737244
browDownRight: 0.8096957206726074
browInnerUp: 0.00035583582939580083
browOuterUpLeft: 0.00035752105759456754
... (52 blendshapes for each face)
facial_transformation_matrixes:
[9.99158978e-01, -1.23036895e-02, 3.91213447e-02, -3.70770246e-01]
[1.66496094e-02, 9.93480563e-01, -1.12779640e-01, 2.27719707e+01]
...
次の図は、タスク出力を可視化したものです。
顔のランドマークャーのサンプルコードは、タスクから返された結果を表示する方法を示しています。詳しくは、OverlayView
クラスをご覧ください。