ウェブ向けインタラクティブな画像セグメンテーション ガイド

MediaPipe Interactive Image Segmenter タスクは、画像内の位置を取得し、その位置にあるオブジェクトの境界を推定して、オブジェクトのセグメンテーションを画像データとして返します。この手順では、Node アプリとウェブアプリでインタラクティブ画像セグメンターを使用する方法について説明します。このタスクの機能、モデル、構成オプションの詳細については、概要をご覧ください。

サンプルコード

Interactive Image Segmenter のサンプルコードには、このタスクの完全な JavaScript 実装が記載されています。このコードは、このタスクをテストし、独自のインタラクティブ画像セグメンテーション アプリの構築を開始するのに役立ちます。ウェブブラウザのみを使用して、インタラクティブ画像セグメンターのを表示、実行、編集できます。

セットアップ

このセクションでは、特にインタラクティブ画像セグメンターを使用するための開発環境とコード プロジェクトを設定する主な手順について説明します。プラットフォーム バージョンの要件など、MediaPipe タスクを使用するための開発環境の設定に関する一般的な情報については、ウェブの設定ガイドをご覧ください。

JavaScript パッケージ

インタラクティブ画像セグメンターのコードは、MediaPipe @mediapipe/tasks-vision NPM パッケージから入手できます。これらのライブラリは、プラットフォームのセットアップ ガイドに記載されているリンクからダウンロードできます。

次のコマンドを使用して、ローカル ステージングに必要なパッケージを次のコードでインストールできます。

npm install --save @mediapipe/tasks-vision

コンテンツ配信ネットワーク(CDN)サービス経由でタスクコードをインポートする場合は、HTML ファイルの タグに次のコードを追加します。

<head>
  <script src="https://cdn.jsdelivr.net/npm/@mediapipe/tasks-vision/vision_bundle.mjs"
    crossorigin="anonymous"></script>
</head>

モデル

MediaPipe Interactive Image Segmenter タスクには、このタスクと互換性のあるトレーニング済みモデルが必要です。インタラクティブ画像セグメンターで使用可能なトレーニング済みモデルの詳細については、タスクの概要のモデルのセクションをご覧ください。

モデルを選択してダウンロードし、プロジェクト ディレクトリに保存します。

<dev-project-root>/app/shared/models/

タスクを作成する

インタラクティブ画像セグメンターの createFrom...() 関数のいずれかを使用して、推論を実行するタスクを準備します。トレーニング済みモデル ファイルの相対パスまたは絶対パスを使用して、createFromModelPath() 関数を使用します。モデルがすでにメモリに読み込まれている場合は、createFromModelBuffer() メソッドを使用できます。

次のコード例は、createFromOptions() 関数を使用してタスクを設定する方法を示しています。createFromOptions 関数を使用すると、構成オプションを使用してインタラクティブ画像セグメンターをカスタマイズできます。構成オプションの詳細については、構成オプションをご覧ください。

次のコードは、カスタム オプションを使用してタスクをビルドして構成する方法を示しています。

async function createSegmenter() {
  const vision = await FilesetResolver.forVisionTasks(
    "https://cdn.jsdelivr.net/npm/@mediapipe/tasks-vision@latest/wasm"
  );

  interactiveSegmenter = await InteractiveSegmenter.createFromOptions(vision, {
    baseOptions: {
      modelAssetPath:
        "https://storage.googleapis.com/mediapipe-tasks/interactive_segmenter/ptm_512_hdt_ptm_woid.tflite"
    },
  });
}
createSegmenter();

構成オプション

このタスクには、ウェブ アプリケーションの次の構成オプションがあります。

オプション名 説明 値の範囲 デフォルト値
outputCategoryMask True に設定すると、出力には uint8 画像としてセグメンテーション マスクが含まれます。各ピクセル値は、そのピクセルが関心領域にあるオブジェクトの一部であるかどうかを示します。 {True, False} False
outputConfidenceMasks True に設定すると、出力には浮動小数点値の画像としてセグメンテーション マスクが含まれます。各浮動小数点値は、ピクセルが対象領域にあるオブジェクトの一部である信頼度を表します。 {True, False} True
displayNamesLocale タスクのモデルのメタデータで指定された表示名に使用するラベルの言語を設定します(利用可能な場合)。デフォルトは英語の場合は en です。TensorFlow Lite メタデータ ライター API を使用して、カスタムモデルのメタデータにローカライズされたラベルを追加できます。言語 / 地域コード en

データの準備

インタラクティブ画像セグメンターは、ホストブラウザでサポートされている任意の形式の画像内のオブジェクトをセグメント化できます。このタスクは、サイズ変更、回転、値の正規化など、データ入力の前処理も処理します。

インタラクティブ画像セグメンターの segment() メソッドと segmentForVideo() メソッドの呼び出しは同期的に実行され、ユーザー インターフェース スレッドをブロックします。デバイスのカメラから動画フレーム内のオブジェクトをセグメント化する場合、各セグメンテーション タスクはメインスレッドをブロックします。これを防ぐには、ウェブ ワーカーを実装して、別のスレッドで segment()segmentForVideo() を実行します。

タスクを実行する

インタラクティブ画像セグメンターは、segment() メソッドを使用して推論をトリガーします。Interactive Image Segmenter は、タスクの推論を実行するときに設定したコールバック関数に、検出されたセグメントを画像データとして返します。

次のコードは、タスクモデルを使用して処理を実行する方法を示しています。

const image = document.getElementById("image") as HTMLImageElement;
interactiveSegmenter.segment(
  image,
  {
    keypoint: {
      x: event.offsetX / event.target.width,
      y: event.offsetY / event.target.height
    }
  },
  callback);

インタラクティブ画像セグメンター タスクを実行するより完全な実装については、サンプルをご覧ください。

結果を処理して表示する

推論を実行すると、インタラクティブ画像セグメンター タスクはセグメント画像データをコールバック関数に返します。出力の内容は画像データです。タスクの構成時に設定した内容に応じて、カテゴリ マスク、信頼度マスク、またはその両方が含まれる場合があります。

以降のセクションでは、このタスクの出力データについて詳しく説明します。

カテゴリ マスク

次の画像は、関心領域のポイントが示されたカテゴリ値マスクのタスク出力の可視化を示しています。各ピクセルは、対象領域にあるオブジェクトの一部であるかどうかを示す uint8 値です。2 番目の画像の白黒の円は、選択された対象領域を示しています。

葉の山の中に立っている犬 前の画像の犬の輪郭

元の画像とカテゴリ マスクの出力。Pascal VOC 2012 データセットのソース画像。

信頼度マスク

信頼マスクの出力には、各画像入力チャネルの [0, 1] の間の浮動小数点値が含まれます。値が大きいほど、画像ピクセルが対象領域にあるオブジェクトの一部であるという信頼度が高くなります。

インタラクティブ画像セグメンターのサンプルコードは、タスクから返された分類結果を表示する方法を示しています。詳しくは、サンプルをご覧ください。