MediaPipe Face Landmarker タスクを使用すると、画像や動画内の顔のランドマークと表情を検出できます。このタスクを使用すると、人間の表情を特定したり、顔のフィルタやエフェクトを適用したり、仮想アバターを作成したりできます。このタスクでは、単一の画像または連続した画像ストリームを処理できる ML モデルを使用します。このタスクは、3 次元の顔のランドマーク、詳細な顔面サーフェスをリアルタイムで推測するためのブレンドシェイプ スコア(顔の表情を表す係数)、エフェクトのレンダリングに必要な変換を実行するための変換行列を出力します。
これらの手順で説明するコードサンプルは GitHub で入手できます。このタスクの機能、モデル、構成オプションの詳細については、概要をご覧ください。
サンプルコード
MediaPipe Tasks のサンプルコードは、Android 向けの Face Landmarker アプリのシンプルな実装です。この例では、物理的な Android デバイスのカメラを使用して、連続した動画ストリーム内の顔を検出します。このアプリは、デバイスのギャラリーにある画像や動画の顔も検出できます。
このアプリは、独自の Android アプリの開始点として使用できます。また、既存のアプリを変更する際にも参照できます。Face Landmarker のサンプルコードは GitHub でホストされています。
コードをダウンロードする
次の手順では、git コマンドライン ツールを使用してサンプルコードのローカルコピーを作成する方法について説明します。
サンプルコードをダウンロードするには:
- 次のコマンドを使用して、Git リポジトリのクローンを作成します。git clone https://github.com/google-ai-edge/mediapipe-samples 
- 必要に応じて、スパース チェックアウトを使用するように Git インスタンスを構成して、Face Landmarker サンプルアプリのファイルのみを取得します。cd mediapipe-samples git sparse-checkout init --cone git sparse-checkout set examples/face_landmarker/android 
サンプルコードのローカル バージョンを作成したら、プロジェクトを Android Studio にインポートしてアプリを実行できます。手順については、Android のセットアップ ガイドをご覧ください。
主要コンポーネント
次のファイルには、この顔ランドマークのサンプル アプリケーションの重要なコードが含まれています。
- FaceLandmarkerHelper.kt - 顔ランドマークを初期化し、モデルとデリゲートの選択を処理します。
- CameraFragment.kt - デバイスのカメラを処理し、画像と動画の入力データを処理します。
- GalleryFragment.kt - OverlayViewとやり取りして、出力画像または動画を表示します。
- OverlayView.kt - 検出された顔のフェイスメッシュを含むディスプレイを実装します。
セットアップ
このセクションでは、Face Landmarker を使用するように開発環境とコード プロジェクトを設定する主な手順について説明します。プラットフォーム バージョンの要件など、MediaPipe タスクを使用する開発環境の設定に関する一般的な情報については、Android の設定ガイドをご覧ください。
依存関係
Face Landmarker タスクは com.google.mediapipe:tasks-vision ライブラリを使用します。この依存関係を Android アプリの build.gradle ファイルに追加します。
dependencies {
    implementation 'com.google.mediapipe:tasks-vision:latest.release'
}
モデル
MediaPipe Face Landmarker タスクには、このタスクと互換性のあるトレーニング済みモデル バンドルが必要です。Face Landmarker で使用可能なトレーニング済みモデルの詳細については、タスクの概要のモデルのセクションをご覧ください。
モデルを選択してダウンロードし、プロジェクト ディレクトリに保存します。
<dev-project-root>/src/main/assets
ModelAssetPath パラメータ内にモデルのパスを指定します。サンプルコードでは、モデルは FaceLandmarkerHelper.kt ファイルに定義されています。
baseOptionsBuilder.setModelAssetPath(MP_FACE_LANDMARKER_TASK)
タスクを作成する
MediaPipe Face Landmarker タスクは、createFromOptions() 関数を使用してタスクを設定します。createFromOptions() 関数は、構成オプションの値を受け入れます。構成オプションの詳細については、構成オプションをご覧ください。
Face Landmarker は、静止画像、動画ファイル、ライブ動画ストリーミングの入力データ形式をサポートしています。タスクを作成するときに、入力データ型に対応する実行モードを指定する必要があります。入力データ型のタブを選択して、タスクを作成し推論を実行する方法を確認します。
画像
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_FACE_LANDMARKER_TASK)
val baseOptions = baseOptionBuilder.build()
val optionsBuilder = 
    FaceLandmarker.FaceLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinFaceDetectionConfidence(minFaceDetectionConfidence)
        .setMinTrackingConfidence(minFaceTrackingConfidence)
        .setMinFacePresenceConfidence(minFacePresenceConfidence)
        .setNumFaces(maxNumFaces)
        .setRunningMode(RunningMode.IMAGE)
val options = optionsBuilder.build()
FaceLandmarker = FaceLandmarker.createFromOptions(context, options)
    動画
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_FACE_LANDMARKER_TASK)
val baseOptions = baseOptionBuilder.build()
val optionsBuilder = 
    FaceLandmarker.FaceLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinFaceDetectionConfidence(minFaceDetectionConfidence)
        .setMinTrackingConfidence(minFaceTrackingConfidence)
        .setMinFacePresenceConfidence(minFacePresenceConfidence)
        .setNumFaces(maxNumFaces)
        .setRunningMode(RunningMode.VIDEO)
val options = optionsBuilder.build()
FaceLandmarker = FaceLandmarker.createFromOptions(context, options)
    ライブ配信
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_FACE_LANDMARKER_TASK)
val baseOptions = baseOptionBuilder.build()
val optionsBuilder = 
    FaceLandmarker.FaceLandmarkerOptions.builder()
        .setBaseOptions(baseOptionsBuilder.build())
        .setMinFaceDetectionConfidence(minFaceDetectionConfidence)
        .setMinTrackingConfidence(minFaceTrackingConfidence)
        .setMinFacePresenceConfidence(minFacePresenceConfidence)
        .setNumFaces(maxNumFaces)
        .setResultListener(this::returnLivestreamResult)
        .setErrorListener(this::returnLivestreamError)
        .setRunningMode(RunningMode.LIVE_STREAM)
val options = optionsBuilder.build()
FaceLandmarker = FaceLandmarker.createFromOptions(context, options)
    Face Landmarker のサンプルコードの実装では、ユーザーが処理モードを切り替えることができます。この方法ではタスク作成コードが複雑になり、ユースケースに適さない場合があります。このコードは、FaceLandmarkerHelper.kt ファイルの setupFaceLandmarker() 関数で確認できます。
設定オプション
このタスクには、Android アプリ用の次の構成オプションがあります。
| オプション名 | 説明 | 値の範囲 | デフォルト値 | 
|---|---|---|---|
| runningMode | タスクの実行モードを設定します。モードは次の 3 つです。 IMAGE: 単一画像入力のモード。 動画: 動画のデコードされたフレームのモード。 LIVE_STREAM: カメラなどからの入力データのライブ配信モード。このモードでは、resultListener を呼び出して、結果を非同期で受信するリスナーを設定する必要があります。 | { IMAGE, VIDEO, LIVE_STREAM} | IMAGE | 
| numFaces | FaceLandmarkerで検出できる顔の最大数。スムージングは、num_facesが 1 に設定されている場合にのみ適用されます。 | Integer > 0 | 1 | 
| minFaceDetectionConfidence | 顔検出が成功とみなされるための最小信頼スコア。 | Float [0.0,1.0] | 0.5 | 
| minFacePresenceConfidence | 顔のランドマーク検出における顔の存在スコアの最小信頼度スコア。 | Float [0.0,1.0] | 0.5 | 
| minTrackingConfidence | 顔トラッキングが成功とみなされるための最小信頼スコア。 | Float [0.0,1.0] | 0.5 | 
| outputFaceBlendshapes | Face Landmarker が顔のブレンドシェイプを出力するかどうか。顔のブレンドシェイプは、3D 顔モデルのレンダリングに使用されます。 | Boolean | False | 
| outputFacialTransformationMatrixes | FaceLandmarker が顔変換行列を出力するかどうか。FaceLandmarker は、マトリックスを使用して顔ランドマークを標準の顔モデルから検出された顔に変換します。これにより、ユーザーは検出されたランドマークにエフェクトを適用できます。 | Boolean | False | 
| resultListener | FaceLandmarker がライブ配信モードの場合に、ランドマークの結果を非同期的に受け取るように結果リスナーを設定します。実行モードが LIVE_STREAMに設定されている場合にのみ使用できます。 | ResultListener | N/A | 
| errorListener | オプションのエラー リスナーを設定します。 | ErrorListener | N/A | 
データの準備
Face Landmarker は、画像、動画ファイル、ライブ動画配信で動作します。このタスクは、サイズ変更、回転、値の正規化などのデータ入力前処理を処理します。
次のコードは、処理のためにデータをハンドオフする方法を示しています。これらのサンプルには、画像、動画ファイル、ライブ動画ストリーミングのデータの処理方法の詳細が含まれています。
画像
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(image).build()
動画
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage val argb8888Frame = if (frame.config == Bitmap.Config.ARGB_8888) frame else frame.copy(Bitmap.Config.ARGB_8888, false) // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(argb8888Frame).build()
ライブ配信
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(rotatedBitmap).build()
Face Landmarker のサンプルコードでは、データの準備は FaceLandmarkerHelper.kt ファイルで処理されます。
タスクを実行する
使用するデータの種類に応じて、そのデータ型に固有の FaceLandmarker.detect...() メソッドを使用します。個々の画像には detect()、動画ファイル内のフレームには detectForVideo()、動画ストリームには detectAsync() を使用します。動画ストリームで検出を行う場合は、ユーザー インターフェース スレッドがブロックされないように、検出を別のスレッドで実行してください。
次のコードサンプルは、さまざまなデータモードで Face Landmarker を実行する方法の簡単な例を示しています。
画像
val result = FaceLandmarker.detect(mpImage)
    動画
val timestampMs = i * inferenceIntervalMs FaceLandmarker.detectForVideo(mpImage, timestampMs) .let { detectionResult -> resultList.add(detectionResult) }
ライブ配信
val mpImage = BitmapImageBuilder(rotatedBitmap).build()
val frameTime = SystemClock.uptimeMillis()
FaceLandmarker.detectAsync(mpImage, frameTime)
    次の点にご注意ください。
- 動画モードまたはライブ配信モードで実行する場合は、入力フレームのタイムスタンプを Face Landmarker タスクに指定する必要があります。
- 画像モードまたは動画モードで実行する場合、Face Landmarker タスクは、入力画像またはフレームの処理が完了するまで現在のスレッドをブロックします。ユーザー インターフェースをブロックしないように、処理をバックグラウンド スレッドで実行します。
- ライブ配信モードで実行すると、Face Landmarker タスクはすぐに返され、現在のスレッドはブロックされません。入力フレームの処理が完了するたびに、検出結果とともに結果リスナーが呼び出されます。
Face Landmarker のサンプルコードでは、detect、detectForVideo、detectAsync 関数は FaceLandmarkerHelper.kt ファイルで定義されています。
結果を処理して表示する
Face Landmarker は、検出の実行ごとに FaceLandmarkerResult オブジェクトを返します。結果オブジェクトには、検出された各顔の顔メッシュと、各顔ランドマークの座標が含まれます。必要に応じて、結果オブジェクトに、顔の表情を表すブレンドシェイプと、検出されたランドマークに顔エフェクトを適用する顔変換マトリックスを含めることもできます。
このタスクの出力データの例を次に示します。
FaceLandmarkerResult:
  face_landmarks:
    NormalizedLandmark #0:
      x: 0.5971359014511108
      y: 0.485361784696579
      z: -0.038440968841314316
    NormalizedLandmark #1:
      x: 0.3302789330482483
      y: 0.29289937019348145
      z: -0.09489090740680695
    ... (478 landmarks for each face)
  face_blendshapes:
    browDownLeft: 0.8296722769737244
    browDownRight: 0.8096957206726074
    browInnerUp: 0.00035583582939580083
    browOuterUpLeft: 0.00035752105759456754
    ... (52 blendshapes for each face)
  facial_transformation_matrixes:
    [9.99158978e-01, -1.23036895e-02, 3.91213447e-02, -3.70770246e-01]
    [1.66496094e-02,  9.93480563e-01, -1.12779640e-01, 2.27719707e+01]
    ...
次の図は、タスク出力の可視化を示しています。
 
 
Face Landmarker のサンプルコードは、タスクから返された結果を表示する方法を示しています。詳細については、OverlayView クラスをご覧ください。