MediaPipe 画像分類タスクを使用すると、画像の分類を行うことができます。このタスクを使用して、トレーニング時に定義された一連のカテゴリの中から画像が何を表すかを特定できます。ここでは、Python で画像分類器を使用する方法について説明します。
このタスクの実際の動作は、ウェブデモで確認できます。このタスクの機能、モデル、構成オプションの詳細については、概要をご覧ください。
サンプルコード
参考までに、画像分類器のサンプルコードには、このタスクの完全な実装が Python で用意されています。このコードは、このタスクをテストし、独自の画像分類器の作成を始めるのに役立ちます。ウェブブラウザだけで、画像分類器のサンプルコードを表示、実行、編集できます。
Raspberry Pi 用の画像分類を実装する場合は、Raspberry Pi サンプルアプリをご覧ください。
セットアップ
このセクションでは、画像分類器を使用するための開発環境とコード プロジェクトを設定する際の主な手順について説明します。プラットフォームのバージョン要件など、MediaPipe タスクを使用するための開発環境の設定に関する一般的な情報については、Python の設定ガイドをご覧ください。
パッケージ
画像分類器は mediapipe pip パッケージのタスクを実行します。この依存関係は、次のコマンドでインストールできます。
$ python -m pip install mediapipe
インポート
画像分類タスク関数にアクセスするには、次のクラスをインポートします。
import mediapipe as mp
from mediapipe.tasks import python
from mediapipe.tasks.python import vision
モデル
MediaPipe 画像分類タスクには、このタスクと互換性のあるトレーニング済みモデルが必要です。画像分類器で利用可能なトレーニング済みモデルの詳細については、タスクの概要のモデル セクションをご覧ください。
モデルを選択してダウンロードし、ローカル ディレクトリに保存します。推奨の EfficientNet-Lite0 モデルを使用できます。
model_path = '/absolute/path/to/efficientnet_lite0_int8_2.tflite'
次のように、[モデル名] パラメータ内にモデルのパスを指定します。
base_options = BaseOptions(model_asset_path=model_path)
タスクを作成する
create_from_options
関数を使用してタスクを作成します。create_from_options
関数は、実行モード、表示名のロケール、最大結果数、信頼度のしきい値、カテゴリの許可リスト、拒否リストなどの構成オプションを受け入れます。構成オプションの詳細については、構成の概要をご覧ください。
画像分類タスクは、静止画像、動画ファイル、ライブ動画ストリームの 3 つの入力データ型をサポートしています。入力データ型に対応するタブを選択して、タスクを作成して推論を実行する方法を確認します。
画像
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions ImageClassifier = mp.tasks.vision.ImageClassifier ImageClassifierOptions = mp.tasks.vision.ImageClassifierOptions VisionRunningMode = mp.tasks.vision.RunningMode options = ImageClassifierOptions( base_options=BaseOptions(model_asset_path='/path/to/model.tflite'), max_results=5, running_mode=VisionRunningMode.IMAGE) with ImageClassifier.create_from_options(options) as classifier: # The classifier is initialized. Use it here. # ...
動画
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions ImageClassifier = mp.tasks.vision.ImageClassifier ImageClassifierOptions = mp.tasks.vision.ImageClassifierOptions VisionRunningMode = mp.tasks.vision.RunningMode options = ImageClassifierOptions( base_options=BaseOptions(model_asset_path='/path/to/model.tflite'), max_results=5, running_mode=VisionRunningMode.VIDEO) with ImageClassifier.create_from_options(options) as classifier: # The classifier is initialized. Use it here. # ...
ライブ配信
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions ImageClassifierResult = mp.tasks.vision.ImageClassifier.ImageClassifierResult ImageClassifier = mp.tasks.vision.ImageClassifier ImageClassifierOptions = mp.tasks.vision.ImageClassifierOptions VisionRunningMode = mp.tasks.vision.RunningMode def print_result(result: ImageClassifierResult, output_image: mp.Image, timestamp_ms: int): print('ImageClassifierResult result: {}'.format(result)) options = ImageClassifierOptions( base_options=BaseOptions(model_asset_path='/path/to/model.tflite'), running_mode=VisionRunningMode.LIVE_STREAM, max_results=5, result_callback=print_result) with ImageClassifier.create_from_options(options) as classifier: # The classifier is initialized. Use it here. # ...
画像で使用する画像分類器の作成例については、コードサンプルをご覧ください。
構成オプション
このタスクには、Python アプリケーション用に次の構成オプションがあります。
オプション名 | 説明 | 値の範囲 | デフォルト値 |
---|---|---|---|
running_mode |
タスクの実行モードを設定します。モードは 3 つあります。 IMAGE: 単一の画像入力のモード。 VIDEO: 動画のデコードされたフレームのモード。 LIVE_STREAM: カメラからのデータなど、入力データのライブストリームのモード。このモードでは、resultListener を呼び出して、結果を非同期で受け取るリスナーをセットアップする必要があります。 |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
display_names_locale |
タスクのモデルのメタデータで提供される表示名に使用するラベルの言語を設定します(利用可能な場合)。英語の場合、デフォルトは en です。TensorFlow Lite Metadata Writer API を使用して、カスタムモデルのメタデータにローカライズされたラベルを追加できます。 |
言語 / 地域コード | en |
max_results |
返されるトップスコアの分類結果の最大数を設定します(省略可)。0 未満の場合、利用可能なすべての結果が返されます。 | 任意の正の数 | -1 |
score_threshold |
モデル メタデータ(存在する場合)で指定された値をオーバーライドする予測スコアのしきい値を設定します。この値を下回る結果は拒否されます。 | 任意の浮動小数点数 | 未設定 |
category_allowlist |
許可されるカテゴリ名のオプション リストを設定します。空でない場合、カテゴリ名がこのセットにない分類結果は除外されます。重複するカテゴリ名や不明なカテゴリ名は無視されます。
このオプションは category_denylist と相互に排他的であり、両方を使用するとエラーが発生します。 |
任意の文字列 | 未設定 |
category_denylist |
使用できないカテゴリ名のオプション リストを設定します。空でない場合、カテゴリ名がこのセットに含まれる分類結果は除外されます。重複するカテゴリ名や不明なカテゴリ名は無視されます。このオプションは category_allowlist と相互に排他的であり、両方を使用するとエラーになります。 |
任意の文字列 | 未設定 |
result_callback |
画像分類器がライブ ストリーム モードのときに分類結果を非同期で受け取るように結果リスナーを設定します。実行モードが LIVE_STREAM に設定されている場合にのみ使用できます |
なし | 未設定 |
データの準備
入力を画像ファイルまたは numpy 配列として準備し、mediapipe.Image
オブジェクトに変換します。入力が動画ファイルまたはウェブカメラのライブ ストリームの場合は、OpenCV などの外部ライブラリを使用して、入力フレームを numpy 配列として読み込むことができます。
以下の例では、使用可能な各データ型の処理用にデータを準備する方法について説明します。
画像
import mediapipe as mp # Load the input image from an image file. mp_image = mp.Image.create_from_file('/path/to/image') # Load the input image from a numpy array. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_image)
動画
import mediapipe as mp # Use OpenCV’s VideoCapture to load the input video. # Load the frame rate of the video using OpenCV’s CV_CAP_PROP_FPS # You’ll need it to calculate the timestamp for each frame. # Loop through each frame in the video using VideoCapture#read() # Convert the frame received from OpenCV to a MediaPipe’s Image object. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
ライブ配信
import mediapipe as mp # Use OpenCV’s VideoCapture to start capturing from the webcam. # Create a loop to read the latest frame from the camera using VideoCapture#read() # Convert the frame received from OpenCV to a MediaPipe’s Image object. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
タスクを実行する
実行モードに対応する分類関数を呼び出して、推論をトリガーできます。Image Classifier API は、入力された画像またはフレーム内のオブジェクトに該当するカテゴリを返します。
画像
# Perform image classification on the provided single image. classification_result = classifier.classify(mp_image)
動画
# Calculate the timestamp of the current frame frame_timestamp_ms = 1000 * frame_index / video_file_fps # Perform image classification on the video frame. classification_result = classifier.classify_for_video(mp_image, frame_timestamp_ms)
ライブ配信
# Send the latest frame to perform image classification. # Results are sent to the `result_callback` provided in the `ImageClassifierOptions`. classifier.classify_async(mp_image, frame_timestamp_ms)
次の点にご留意ください。
- 動画モードまたはライブ ストリーム モードで実行する場合は、画像分類タスクに入力フレームのタイムスタンプも指定する必要があります。
- 画像モデルまたは動画モデルで実行されている場合、画像分類タスクは入力画像またはフレームの処理を完了するまで現在のスレッドをブロックします。
- ライブ ストリーム モードで実行されている場合、画像分類タスクは現在のスレッドをブロックせず、すぐに結果を返します。入力フレームの処理が完了するたびに、分類結果とともに結果リスナーを呼び出します。画像分類タスクが別のフレームの処理でビジー状態のときに
classifyAsync
関数が呼び出された場合、タスクは新しい入力フレームを無視します。
画像で使用する画像分類器の作成例については、コードサンプルをご覧ください。
結果を処理して表示する
推論を実行すると、画像分類タスクは ImageClassifierResult
オブジェクトを返します。このオブジェクトには、入力画像またはフレーム内のオブジェクトのカテゴリのリストが含まれています。
このタスクからの出力データの例を次に示します。
ImageClassifierResult:
Classifications #0 (single classification head):
head index: 0
category #0:
category name: "/m/01bwb9"
display name: "Passer domesticus"
score: 0.91406
index: 671
category #1:
category name: "/m/01bwbt"
display name: "Passer montanus"
score: 0.00391
index: 670
この結果は、以下で Bird Classifier を実行して取得されています。
画像分類器のサンプルコードは、タスクから返された分類結果を表示する方法を示しています。詳しくは、コードサンプルをご覧ください。