MediaPipe インタラクティブ画像セグメンテーション タスクは、画像内の位置を取り、その位置にあるオブジェクトの境界を推定し、オブジェクトのセグメンテーションを画像データとして返します。ここでは、Node アプリとウェブアプリでインタラクティブ画像セグメンテーションを使用する方法について説明します。このタスクの機能、モデル、構成オプションの詳細については、概要をご覧ください。
サンプルコード
インタラクティブ画像セグメンテーションのサンプルコードには、このタスクの JavaScript での完全な実装が含まれています。このコードは、このタスクをテストし、独自のインタラクティブな画像分割アプリの作成を開始するのに役立ちます。インタラクティブな画像分割ツールのサンプルコードは、ウェブブラウザだけで表示、実行、編集できます。この例のコードは GitHub でも確認できます。
セットアップ
このセクションでは、インタラクティブ イメージ セグメンタを使用するように開発環境とコード プロジェクトを設定する主な手順について説明します。プラットフォーム バージョンの要件など、MediaPipe タスクを使用する開発環境の設定に関する一般的な情報については、ウェブ向けの設定ガイドをご覧ください。
JavaScript パッケージ
インタラクティブな画像セグメンテーション コードは、MediaPipe @mediapipe/tasks-vision
NPM パッケージで入手できます。これらのライブラリは、プラットフォームの設定ガイドに記載されているリンクから検索してダウンロードできます。
ローカル ステージング用に必要なパッケージをインストールするには、次のコマンドを使用します。
npm install --save @mediapipe/tasks-vision
コンテンツ配信ネットワーク(CDN)サービス経由でタスクコードをインポートする場合は、HTML ファイルの タグに次のコードを追加します。
<head>
<script src="https://cdn.jsdelivr.net/npm/@mediapipe/tasks-vision/vision_bundle.js"
crossorigin="anonymous"></script>
</head>
モデル
MediaPipe インタラクティブ画像セグメンテーション タスクには、このタスクに対応したトレーニング済みモデルが必要です。インタラクティブ画像セグメンテーションで使用可能なトレーニング済みモデルの詳細については、タスクの概要のモデルのセクションをご覧ください。
モデルを選択してダウンロードし、プロジェクト ディレクトリに保存します。
<dev-project-root>/app/shared/models/
タスクを作成する
インタラクティブ画像セグメンテーションの createFrom...()
関数のいずれかを使用して、推論を実行するタスクを準備します。トレーニング済みモデルファイルの相対パスまたは絶対パスを指定して createFromModelPath()
関数を使用します。モデルがすでにメモリに読み込まれている場合は、createFromModelBuffer()
メソッドを使用できます。
次のコードサンプルは、createFromOptions()
関数を使用してタスクを設定する方法を示しています。createFromOptions
関数を使用すると、構成オプションを使用してインタラクティブ イメージ セグメンタ機能をカスタマイズできます。構成オプションの詳細については、構成オプションをご覧ください。
次のコードは、カスタム オプションを使用してタスクをビルドして構成する方法を示しています。
async function createSegmenter() {
const vision = await FilesetResolver.forVisionTasks(
"https://cdn.jsdelivr.net/npm/@mediapipe/tasks-vision@latest/wasm"
);
interactiveSegmenter = await InteractiveSegmenter.createFromOptions(vision, {
baseOptions: {
modelAssetPath:
"https://storage.googleapis.com/mediapipe-tasks/interactive_segmenter/ptm_512_hdt_ptm_woid.tflite"
},
});
}
createSegmenter();
設定オプション
このタスクには、ウェブ アプリケーションの次の構成オプションがあります。
オプション名 | 説明 | 値の範囲 | デフォルト値 |
---|---|---|---|
outputCategoryMask |
True に設定した場合、出力には uint8 画像としてセグメンテーション マスクが含まれます。各ピクセル値は、ピクセルが関心領域にあるオブジェクトの一部であるかどうかを示します。 |
{True, False } |
False |
outputConfidenceMasks |
True に設定すると、出力には浮動小数点値画像としてセグメンテーション マスクが含まれます。各浮動小数点値は、ピクセルが対象領域にあるオブジェクトの一部であるという信頼度を表します。 |
{True, False } |
True |
displayNamesLocale |
タスクのモデルのメタデータで指定されている表示名に使用するラベルの言語を設定します(利用可能な場合)。デフォルトは英語で en です。TensorFlow Lite Metadata Writer API を使用して、カスタムモデルのメタデータにローカライズされたラベルを追加できます。 | 言語 / 地域コード | en |
データの準備
インタラクティブ イメージ セグメンタは、ホスト ブラウザでサポートされている任意の形式で画像内のオブジェクトをセグメント化できます。このタスクは、サイズ変更、回転、値の正規化などのデータ入力前処理も処理します。
インタラクティブ画像セグメンテーション segment()
メソッドと segmentForVideo()
メソッドの呼び出しは同期的に実行され、ユーザー インターフェース スレッドをブロックします。デバイスのカメラから動画フレームのオブジェクトをセグメント化する場合、各セグメンテーション タスクはメインスレッドをブロックします。これを防ぐには、別のスレッドで segment()
と segmentForVideo()
を実行するようにウェブワーカーを実装します。
タスクを実行する
インタラクティブ画像セグメンタは、segment()
メソッドを使用して推論をトリガーします。インタラクティブ画像セグメンタは、検出されたセグメントを画像データとして、タスクの推論実行時に設定したコールバック関数に返します。
次のコードは、タスクモデルを使用して処理を実行する方法を示しています。
const image = document.getElementById("image") as HTMLImageElement; interactiveSegmenter.segment( image, { keypoint: { x: event.offsetX / event.target.width, y: event.offsetY / event.target.height } }, callback);
インタラクティブ画像セグメンテーション タスクの実行の完全な実装については、コードサンプルをご覧ください。
結果を処理して表示する
推論を実行すると、インタラクティブ画像セグメンテーション タスクは、セグメント画像データをコールバック関数に返します。出力のコンテンツは画像データで、タスクの構成時に設定した内容に応じて、カテゴリ マスク、信頼度マスク、またはその両方が含まれる場合があります。
以降のセクションでは、このタスクの出力データについて詳しく説明します。
カテゴリ マスク
次の画像は、関心領域の点が表示されたカテゴリ値マスクのタスク出力の可視化を示しています。各ピクセルは、ピクセルが対象領域にあるオブジェクトの一部であるかどうかを示す uint8
値です。2 番目の画像の白黒の円は、選択した対象領域を示しています。
元の画像とカテゴリ マスクの出力。Pascal VOC 2012 データセットのソース画像。
信頼度マスク
信頼度マスクの出力には、各画像入力チャネルの [0, 1]
の間の浮動小数点値が含まれます。値が大きいほど、画像ピクセルが対象領域にあるオブジェクトの一部である可能性が高いことを示します。
インタラクティブ画像セグメンテーションのサンプルコードは、タスクから返された分類結果を表示する方法を示しています。詳細については、コードサンプルをご覧ください。