MediaPipe Face Detector タスクを使用すると、画像や動画内の顔を検出できます。このタスクを使用して、フレーム内の顔や顔の特徴を特定できます。このタスクでは、単一の画像または画像の連続ストリームを操作する機械学習(ML)モデルを使用します。このタスクは、顔の位置と、顔のキーポイント(左目、右目、鼻先、口、左目による悲惨、右目の悲劇)を出力します。
この手順で説明されているコードサンプルは、GitHub で入手できます。このタスクの機能、モデル、構成オプションの詳細については、概要をご覧ください。
サンプルコード
MediaPipe Tasks のサンプルコードは、Android 用顔検出アプリの簡単な実装です。この例では、物理的な Android デバイスのカメラを使用して、連続する動画ストリームから顔を検出します。また、デバイス ギャラリーの画像や動画に含まれる顔を検出することもできます。
このアプリは、独自の Android アプリの出発点として使用できます。または、既存のアプリを変更するときにアプリを参照できます。Face Detector のサンプルコードは GitHub でホストされています。
コードをダウンロードする
次の手順では、git コマンドライン ツールを使用してサンプルコードのローカルコピーを作成する方法を示します。
サンプルコードをダウンロードするには:
- 次のコマンドを使用して、git リポジトリのクローンを作成します。
git clone https://github.com/google-ai-edge/mediapipe-samples
- 必要に応じて、スパース チェックアウトを使用するように Git インスタンスを構成して、Face Detector サンプルアプリのファイルのみを取得します。
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/face_detector/android
サンプルコードのローカル バージョンを作成したら、Android Studio にプロジェクトをインポートしてアプリを実行できます。手順については、Android の設定ガイドをご覧ください。
主要コンポーネント
次のファイルには、この顔検出サンプル アプリケーションの重要なコードが含まれています。
- FaceDetectorHelper.kt - 顔検出機能を初期化し、モデルを処理して選択を委任します。
- CameraFragment.kt - デバイスのカメラを処理し、画像と動画の入力データを処理します。
- GalleryFragment.kt -
OverlayView
を操作して、出力画像または動画を表示します。 - OverlayView.kt - 検出された顔の境界ボックスを含む表示を実装します。
セットアップ
このセクションでは、顔検出機能を使用するための開発環境とコード プロジェクトを設定する際の主な手順について説明します。プラットフォームのバージョン要件など、MediaPipe タスクを使用するための開発環境の設定に関する一般的な情報については、Android の設定ガイドをご覧ください。
依存関係
顔検出タスクでは、com.google.mediapipe:tasks-vision
ライブラリを使用します。この依存関係を Android アプリの build.gradle
ファイルに追加します。
dependencies {
implementation 'com.google.mediapipe:tasks-vision:latest.release'
}
モデル
MediaPipe Face Detector タスクには、このタスクと互換性のあるトレーニング済みモデルバンドルが必要です。顔検出で利用可能なトレーニング済みモデルの詳細については、タスクの概要のモデル セクションをご覧ください。
モデルを選択してダウンロードし、プロジェクト ディレクトリに保存します。
<dev-project-root>/src/main/assets
ModelAssetPath
パラメータ内にモデルのパスを指定します。このサンプルコードでは、モデルは FaceDetectorHelper.kt
ファイルで定義されています。
val modelName = "face_detection_short_range.tflite"
baseOptionsBuilder.setModelAssetPath(modelName)
タスクを作成する
MediaPipe Face Detector タスクは、createFromOptions()
関数を使用してタスクをセットアップします。createFromOptions()
関数は、構成オプションの値を受け入れます。構成オプションの詳細については、構成オプションをご覧ください。
顔検出機能は、静止画像、動画ファイル、ライブ動画ストリームの入力データ型をサポートしています。タスクの作成時に、入力データ型に対応する実行モードを指定する必要があります。入力データ型に対応するタブを選択して、タスクを作成して推論を実行する方法を確認します。
画像
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceDetector.FaceDetectorOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinDetectionConfidence(threshold) .setRunningMode(RunningMode.IMAGE) val options = optionsBuilder.build() FaceDetector = FaceDetector.createFromOptions(context, options)
動画
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceDetector.FaceDetectorOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinDetectionConfidence(threshold) .setRunningMode(RunningMode.VIDEO) val options = optionsBuilder.build() FaceDetector = FaceDetector.createFromOptions(context, options)
ライブ配信
val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(modelName) val baseOptions = baseOptionBuilder.build() val optionsBuilder = FaceDetector.FaceDetectorOptions.builder() .setBaseOptions(baseOptionsBuilder.build()) .setMinDetectionConfidence(threshold) .setResultListener(this::returnLivestreamResult) .setErrorListener(this::returnLivestreamError) .setRunningMode(RunningMode.LIVE_STREAM) val options = optionsBuilder.build() FaceDetector = FaceDetector.createFromOptions(context, options)
顔検出サンプルコードを実装すると、ユーザーは処理モードを切り替えることができます。このアプローチでは、タスク作成コードが複雑になり、実際のユースケースには適さない可能性があります。このコードは、FaceDetectorHelper.kt
ファイルの setupFaceDetector()
関数で確認できます。
構成オプション
このタスクには、Android アプリ用に次の構成オプションがあります。
オプション名 | 説明 | 値の範囲 | デフォルト値 |
---|---|---|---|
runningMode |
タスクの実行モードを設定します。モードは 3 つあります。 IMAGE: 単一の画像入力のモード。 VIDEO: 動画のデコードされたフレームのモード。 LIVE_STREAM: カメラからのデータなど、入力データのライブストリームのモード。このモードでは、resultListener を呼び出して、結果を非同期で受け取るリスナーをセットアップする必要があります。 |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
minDetectionConfidence |
顔検出が成功したとみなすための最小信頼スコア。 | Float [0,1] |
0.5 |
minSuppressionThreshold |
顔検出が重複しているとみなすための、最大サプレッション以外の最小しきい値。 | Float [0,1] |
0.3 |
resultListener |
Face Detector がライブ ストリーム モードのときに検出結果を非同期で受け取るように結果リスナーを設定します。実行モードが LIVE_STREAM に設定されている場合にのみ使用できます。 |
N/A |
Not set |
errorListener |
オプションのエラーリスナーを設定します。 | N/A |
Not set |
データの準備
顔検出は、画像、動画ファイル、ライブ動画ストリームに対して機能します。このタスクは、サイズ変更、回転、値の正規化などのデータ入力の前処理を処理します。
次のコードは、処理するデータを渡す方法を示しています。これらのサンプルには、画像、動画ファイル、ライブ動画ストリームのデータを処理する方法に関する詳細が含まれています。
画像
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(image).build()
動画
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage val argb8888Frame = if (frame.config == Bitmap.Config.ARGB_8888) frame else frame.copy(Bitmap.Config.ARGB_8888, false) // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(argb8888Frame).build()
ライブ配信
import com.google.mediapipe.framework.image.BitmapImageBuilder import com.google.mediapipe.framework.image.MPImage // Convert the input Bitmap object to an MPImage object to run inference val mpImage = BitmapImageBuilder(rotatedBitmap).build()
顔検出機能のサンプルコードでは、データの準備は FaceDetectorHelper.kt
ファイルで処理されます。
タスクを実行する
扱うデータの種類に応じて、そのデータ型に固有の faceDetector.detect...()
メソッドを使用します。個々の画像には detect()
、動画ファイルのフレームには detectForVideo()
、動画ストリームには detectAsync()
を使用します。動画ストリームに対して検出を実行する場合は、ユーザー インターフェース スレッドがブロックされないように、検出を別のスレッドで実行してください。
次のコードサンプルは、さまざまなデータモードで顔検出機能を実行する簡単な例を示しています。
画像
val result = faceDetector.detect(mpImage)
動画
val timestampMs = i * inferenceIntervalMs faceDetector.detectForVideo(mpImage, timestampMs) .let { detectionResult -> resultList.add(detectionResult) }
ライブ配信
val mpImage = BitmapImageBuilder(rotatedBitmap).build() val frameTime = SystemClock.uptimeMillis() faceDetector.detectAsync(mpImage, frameTime)
次の点にご留意ください。
- 動画モードまたはライブ ストリーム モードで実行する場合は、入力フレームのタイムスタンプを Face Detector タスクに提供する必要があります。
- 画像モードまたは動画モードで実行されている場合、顔検出タスクは入力画像またはフレームの処理を完了するまで現在のスレッドをブロックします。ユーザー インターフェースがブロックされないように、処理はバックグラウンド スレッドで実行します。
- ライブ ストリーム モードで実行すると、顔検出タスクはすぐに返され、現在のスレッドはブロックされません。入力フレームの処理が完了するたびに、検出結果とともに結果リスナーを呼び出します。顔検出タスクが別のフレームの処理でビジー状態のときに検出関数が呼び出された場合、タスクは新しい入力フレームを無視します。
顔検出サンプルコードでは、detect
、detectForVideo
、detectAsync
の各関数は FaceDetectorHelper.kt
ファイルで定義されています。
結果を処理して表示する
顔検出機能は、検出を実行するたびに FaceDetectorResult
オブジェクトを返します。結果オブジェクトには、検出された顔の境界ボックスと、検出された各顔の信頼スコアが含まれます。
このタスクからの出力データの例を次に示します。
FaceDetectionResult:
Detections:
Detection #0:
BoundingBox:
origin_x: 126
origin_y: 100
width: 463
height: 463
Categories:
Category #0:
index: 0
score: 0.9729152917861938
NormalizedKeypoints:
NormalizedKeypoint #0:
x: 0.18298381567001343
y: 0.2961040139198303
NormalizedKeypoint #1:
x: 0.3302789330482483
y: 0.29289937019348145
... (6 keypoints for each face)
Detection #1:
BoundingBox:
origin_x: 616
origin_y: 193
width: 430
height: 430
Categories:
Category #0:
index: 0
score: 0.9251380562782288
NormalizedKeypoints:
NormalizedKeypoint #0:
x: 0.6151331663131714
y: 0.3713381886482239
NormalizedKeypoint #1:
x: 0.7460576295852661
y: 0.38825345039367676
... (6 keypoints for each face)
次の図は、タスク出力を可視化したものです。
境界ボックスのない画像については、元の画像をご覧ください。
顔検出サンプルコードは、タスクから返された結果を表示する方法を示しています。詳細については、OverlayView
クラスをご覧ください。