TensorFlow Lite モデルメーカー

概要

TensorFlow Lite Model Maker ライブラリは、トレーニング プロセスを簡素化し、 カスタム データセットを使用する TensorFlow Lite モデル。転移学習を使用して トレーニング データの量を削減し、トレーニング時間を短縮できます。

サポートされるタスク

Model Maker ライブラリは現在、次の ML タスクをサポートしています。[ モデルのトレーニング方法のガイドについては、以下のリンクをご覧ください。

サポートされるタスク タスクユーティリティ
画像分類: tutorialapi 画像を事前定義済みのカテゴリに分類する。
オブジェクト検出: チュートリアルapi オブジェクトをリアルタイムで検出します。
テキスト分類: チュートリアルapi テキストを事前定義されたカテゴリに分類する
BERT の質問の回答: チュートリアルapi BERT を使用して、特定の質問に対する特定のコンテキストで答えを見つける。
音声分類: チュートリアルapi 音声を事前定義されたカテゴリに分類する。
推奨: demoapi デバイス上のシナリオでコンテキスト情報に基づいておすすめのアイテムを表示します。
サーチャー: チュートリアルapi データベース内で類似したテキストや画像を検索します。

タスクがサポートされていない場合は、まず TensorFlow: TensorFlow モデルを再トレーニングします。 (転移学習など)については、次のガイドを imagestext音声)または ゼロからトレーニングしてから TensorFlow に変換する Lite モデル。

エンドツーエンドの例

Model Maker では、Google Cloud のカスタム データセットを使用して TensorFlow Lite モデルをトレーニングできます。 わずか数行のコードを記述しています。たとえば、これは画像をトレーニングする手順です。 分類モデルです。

from tflite_model_maker import image_classifier
from tflite_model_maker.image_classifier import DataLoader

# Load input data specific to an on-device ML app.
data = DataLoader.from_folder('flower_photos/')
train_data, test_data = data.split(0.9)

# Customize the TensorFlow model.
model = image_classifier.create(train_data)

# Evaluate the model.
loss, accuracy = model.evaluate(test_data)

# Export to Tensorflow Lite model and label file in `export_dir`.
model.export(export_dir='/tmp/')

詳細については、画像分類ガイドをご覧ください。

インストール

Model Maker をインストールするには、2 つの方法があります。

  • ビルド済みの pip パッケージをインストールします。
pip install tflite-model-maker

ナイトリー版をインストールする場合は、次のコマンドを実行します。

pip install tflite-model-maker-nightly
  • GitHub からソースコードのクローンを作成してインストールします。
git clone https://github.com/tensorflow/examples
cd examples/tensorflow_examples/lite/model_maker/pip_package
pip install -e .

TensorFlow Lite Model Maker は TensorFlow pip を使用 パッケージ。GPU ドライバについては、このモジュールの TensorFlow の GPU ガイド、または インストール ガイドをご覧ください。

Python API リファレンス

モデルメーカーの公開 API は、API 参照をご覧ください。