TensorFlow Lite モデルメーカー

概要

TensorFlow Lite Model Maker ライブラリを使用すると、カスタム データセットを使用して TensorFlow Lite モデルをトレーニングするプロセスを簡素化できます。転移学習を使用して、必要なトレーニング データの量を減らし、トレーニング時間を短縮します。

サポートされているタスク

現在、Model Maker ライブラリは次の ML タスクをサポートしています。モデルのトレーニング方法については、以下のリンクをクリックしてガイドをご覧ください。

サポートされているタスク Task Utility
画像分類: チュートリアルAPI 画像を事前定義されたカテゴリに分類します。
オブジェクト検出: チュートリアルAPI オブジェクトをリアルタイムで検出します。
テキスト分類: チュートリアルAPI テキストを事前定義されたカテゴリに分類する。
BERT 質疑応答: チュートリアルAPI BERT を使用して、特定のコンテキストで特定の質問に対する回答を見つけます。
音声分類: チュートリアルAPI 音声を事前定義されたカテゴリに分類します。
推奨事項: demoapi オンデバイス シナリオのコンテキスト情報に基づいてアイテムを推奨します。
検索語句: tutorialapi データベースで類似したテキストまたは画像を検索します。

タスクがサポートされていない場合は、まず TensorFlow を使用して、転移学習で TensorFlow モデルを再トレーニング(画像テキスト音声などのガイドに沿って)するか、ゼロからトレーニングしてから、TensorFlow Lite モデルに変換します。

エンドツーエンドの例

Model Maker を使用すると、わずか数行のコードでカスタム データセットを使用して TensorFlow Lite モデルをトレーニングできます。たとえば、画像分類モデルをトレーニングする手順は次のとおりです。

from tflite_model_maker import image_classifier
from tflite_model_maker.image_classifier import DataLoader

# Load input data specific to an on-device ML app.
data = DataLoader.from_folder('flower_photos/')
train_data, test_data = data.split(0.9)

# Customize the TensorFlow model.
model = image_classifier.create(train_data)

# Evaluate the model.
loss, accuracy = model.evaluate(test_data)

# Export to Tensorflow Lite model and label file in `export_dir`.
model.export(export_dir='/tmp/')

詳細については、画像分類ガイドをご覧ください。

インストール

Model Maker をインストールする方法は 2 つあります。

  • ビルド済みの pip パッケージをインストールします。
pip install tflite-model-maker

ナイトリー バージョンをインストールする場合は、次のコマンドを実行してください。

pip install tflite-model-maker-nightly
  • GitHub からソースコードのクローンを作成してインストールします。
git clone https://github.com/tensorflow/examples
cd examples/tensorflow_examples/lite/model_maker/pip_package
pip install -e .

TensorFlow Lite Model Maker は TensorFlow pip パッケージに依存しています。GPU ドライバについては、TensorFlow の GPU ガイドまたはインストール ガイドを参照してください。

Python API リファレンス

Model Maker の公開 API については、API リファレンスをご覧ください。