MediaPipe 顔ランドマーク タスクを使用すると、画像や動画内の顔のランドマークと表情を検出できます。このタスクを使用して、人間の顔の表情を識別し、顔のフィルタとエフェクトを適用して、仮想アバターを作成できます。このタスクでは、単一の画像または画像の連続ストリームを使用できる機械学習(ML)モデルを使用します。このタスクは、3 次元の顔のランドマーク、詳細な顔の表面をリアルタイムで推測するためのブレンドシェイプ スコア(顔の表情を表す係数)、エフェクトのレンダリングに必要な変換を行うための変換行列を出力します。
ここでは、ウェブアプリと JavaScript アプリで Face Landscapeer を使用する方法について説明します。このタスクの機能、モデル、構成オプションの詳細については、概要をご覧ください。
サンプルコード
Face Landscapeer のサンプルコードは、参考用にこのタスクの完全な実装を JavaScript で示しています。このコードは、このタスクをテストし、独自の顔ランドマーク アプリの作成を開始するのに役立ちます。ウェブブラウザだけで、顔ランドマークのサンプルコードを表示、実行、編集できます。
セットアップ
このセクションでは、特に Face Landscapeer を使用するための開発環境をセットアップする主な手順について説明します。プラットフォームのバージョン要件など、ウェブと JavaScript の開発環境の設定に関する一般的な情報については、ウェブの設定ガイドをご覧ください。
JavaScript パッケージ
顔のランドマーク er コードは、MediaPipe @mediapipe/tasks-vision
NPM パッケージを通じて入手できます。これらのライブラリは、プラットフォームの設定ガイドの手順に沿って検索してダウンロードできます。
必要なパッケージは、次のコマンドを使用して NPM でインストールできます。
npm install @mediapipe/tasks-vision
コンテンツ配信ネットワーク(CDN)サービスを介してタスクコードをインポートする場合は、HTML ファイルの <head> タグに次のコードを追加します。
<!-- You can replace JSDeliver with another CDN if you prefer to -->
<head>
<script src="https://cdn.jsdelivr.net/npm/@mediapipe/tasks-vision/vision_bundle.js"
crossorigin="anonymous"></script>
</head>
モデル
MediaPipe Face Landscapeer タスクには、このタスクと互換性のあるトレーニング済みモデルが必要です。顔のランドマーク機能で利用可能なトレーニング済みモデルの詳細については、タスクの概要のモデル セクションをご覧ください。
モデルを選択してダウンロードし、プロジェクト ディレクトリに保存します。
<dev-project-root>/app/shared/models/
タスクを作成する
顔のランドマーク er createFrom...()
関数のいずれかを使用して、推論を実行するタスクを準備します。トレーニング済みモデルファイルへの相対パスまたは絶対パスを指定して、createFromModelPath()
関数を使用します。モデルがすでにメモリに読み込まれている場合は、createFromModelBuffer()
メソッドを使用できます。
次のコード例は、createFromOptions()
関数を使用してタスクをセットアップする方法を示しています。createFromOptions
関数を使用すると、構成オプションを使用して顔のランドマーク ツールをカスタマイズできます。詳細については、構成オプションをご覧ください。
次のコードは、カスタム オプションを使用してタスクをビルドして構成する方法を示しています。
const vision = await FilesetResolver.forVisionTasks(
// path/to/wasm/root
"https://cdn.jsdelivr.net/npm/@mediapipe/tasks-vision@latest/wasm"
);
const faceLandmarker = await faceLandmarker.createFromOptions(
vision,
{
baseOptions: {
modelAssetPath: "path/to/model"
},
runningMode: runningMode
});
構成オプション
このタスクには、ウェブ アプリケーションと JavaScript アプリケーション用の次の構成オプションがあります。
オプション名 | 説明 | 値の範囲 | デフォルト値 |
---|---|---|---|
running_mode |
タスクの実行モードを設定します。モードは 2 つあります。 IMAGE: 単一の画像入力のモード。 VIDEO: 動画のデコードされたフレーム、または入力データのライブストリーム(カメラなど)のモード。 |
{IMAGE, VIDEO } |
IMAGE |
numFaces |
FaceLandmarker で検出できる顔の最大数。平滑化は、num_faces が 1 に設定されている場合にのみ適用されます。 |
Integer > 0 |
1 |
minFaceDetectionConfidence |
顔検出が成功したとみなす最小信頼スコア。 | Float [0.0,1.0] |
0.5 |
minFacePresenceConfidence |
顔ランドマーク検出における顔存在スコアの最小信頼スコア。 | Float [0.0,1.0] |
0.5 |
minTrackingConfidence |
顔トラッキングが成功したと判断される最小信頼スコア。 | Float [0.0,1.0] |
0.5 |
outputFaceBlendshapes |
顔のランドマークャーが顔のブレンドシェイプを出力するかどうか。顔のブレンドシェイプは、3D 顔モデルのレンダリングに使用されます。 | Boolean |
False |
outputFacialTransformationMatrixes |
FaceLandscapeer が顔変換行列を出力するかどうか。FaceDescriptorer は、このマトリックスを使用して、顔のランドマークを正規の顔モデルから検出された顔に変換します。これにより、ユーザーは検出されたランドマークにエフェクトを適用できます。 | Boolean |
False |
データの準備
顔のランドマーク機能は、ホストブラウザでサポートされている任意の形式の画像内の顔を検出できます。このタスクは、サイズ変更、回転、値の正規化など、データ入力の前処理も処理します。動画内の顔にランドマークを定めるには、API を使用して一度に 1 フレームずつすばやく処理し、フレームのタイムスタンプを使用して、動画内に顔が出現するタイミングを判断します。
タスクを実行する
顔のランドマーク機能は、detect()
メソッド(実行モード IMAGE
を使用)と detectForVideo()
メソッド(実行モード VIDEO
を使用)を使用して推論をトリガーします。このタスクはデータを処理し、顔をランドマーク化して、結果を報告します。
Face Landscapeer の detect()
メソッドと detectForVideo()
メソッドの呼び出しは同期的に実行され、ユーザー インターフェース スレッドをブロックします。デバイスのカメラから動画フレーム内の顔を検出すると、検出のたびにメインスレッドがブロックされます。これを防ぐには、ウェブ ワーカーを実装して detect()
メソッドと detectForVideo()
メソッドを別のスレッドで実行します。
次のコードは、タスクモデルを使用して処理を実行する方法を示しています。
画像
const image = document.getElementById("image") as HTMLImageElement; const faceLandmarkerResult = faceLandmarker.detect(image);
動画
await faceLandmarker.setOptions({ runningMode: "VIDEO" }); let lastVideoTime = -1; function renderLoop(): void { const video = document.getElementById("video"); if (video.currentTime !== lastVideoTime) { const faceLandmarkerResult = faceLandmarker.detectForVideo(video); processResults(detections); lastVideoTime = video.currentTime; } requestAnimationFrame(() => { renderLoop(); }); }
顔のランドマーク タスクの実行の完全な実装については、コードサンプルをご覧ください。
結果を処理して表示する
Face Landscapeer は、検出を実行するたびに結果オブジェクトを返します。結果のオブジェクトには、検出された各顔の顔メッシュと、各顔ランドマークの座標が含まれます。オプションとして、結果オブジェクトには、顔の表情を示すブレンドシェイプと、検出されたランドマークに顔効果を適用するための顔の変換行列を含めることもできます。
このタスクからの出力データの例を次に示します。
FaceLandmarkerResult:
face_landmarks:
NormalizedLandmark #0:
x: 0.5971359014511108
y: 0.485361784696579
z: -0.038440968841314316
NormalizedLandmark #1:
x: 0.3302789330482483
y: 0.29289937019348145
z: -0.09489090740680695
... (478 landmarks for each face)
face_blendshapes:
browDownLeft: 0.8296722769737244
browDownRight: 0.8096957206726074
browInnerUp: 0.00035583582939580083
browOuterUpLeft: 0.00035752105759456754
... (52 blendshapes for each face)
facial_transformation_matrixes:
[9.99158978e-01, -1.23036895e-02, 3.91213447e-02, -3.70770246e-01]
[1.66496094e-02, 9.93480563e-01, -1.12779640e-01, 2.27719707e+01]
...
次の図は、タスク出力を可視化したものです。
Face Landscapeer サンプルコードは、タスクから返された結果を表示する方法を示しています(コードサンプルを参照)。