TensorFlow Lite 用の事前トレーニング済みモデル

TensorFlow Lite ですぐに使用できる、トレーニング済みのさまざまなオープンソース モデルがあり、多くの ML タスクを実行できます。事前トレーニング済みの TensorFlow Lite モデルを使用すると、モデルを構築してトレーニングすることなく、モバイル デバイスやエッジデバイス アプリケーションに ML 機能を迅速に追加できます。このガイドでは、TensorFlow Lite で使用するトレーニング済みモデルを見つけて決定する方法について説明します。

Kaggle モデルで多数のモデルの閲覧を開始できます。

アプリケーションのモデルを見つける

ユースケースに適した既存の TensorFlow Lite モデルを見つけることは、達成しようとしていることによっては困難です。TensorFlow Lite で使用するモデルを見つける際のおすすめの方法は次のとおりです。

例: TensorFlow Lite でモデルを見つけて使い始める最も簡単な方法は、TensorFlow Lite の例のセクションを参照して、ユースケースに類似したタスクを実行するモデルを見つけることです。この短いサンプルカタログには、一般的なユースケースに対応するモデルと、モデルの実行と使用に役立つサンプルコードの説明が含まれています。

データ入力タイプ別: 独自のユースケースに類似したモデルを調べる以外に、音声、テキスト、画像、動画データなど、処理するデータの種類を検討する方法もあります。ML モデルは、多くの場合、これらのタイプのデータのいずれかで使用するように設計されているため、使用するデータ型を処理するモデルを探すことで、検討すべきモデルを絞り込むことができます。

以下に、一般的なユースケースの Kaggle モデルの TensorFlow Lite モデルへのリンクを示します。

類似モデルから選択する

アプリケーションが画像分類やオブジェクト検出などの一般的なユースケースに従っている場合、バイナリサイズ、データ入力サイズ、推論速度、予測精度評価が異なる複数の TensorFlow Lite モデルのどちらを使用するかを決定することになります。複数のモデルの中から選択する際は、まず最も制限の厳しい制約(モデルのサイズ、データのサイズ、推論速度、精度)に基づいてオプションを絞り込む必要があります。

最も制約のある制約が不明な場合は、それがモデルのサイズであると想定し、利用可能な最小のモデルを選択します。小規模なモデルを選択すると、モデルを正常にデプロイして実行できるデバイスという点で最も柔軟性が高くなります。また、モデルが小さいほど推論が速くなり、予測が速くなるとエンドユーザー エクスペリエンスが向上します。通常、モデルは小さいほど精度が落ちるため、予測精度を重視する場合は、より大きなモデルを選択しなければならないことがあります。

モデルのソース

TensorFlow Lite で使用するモデルを見つけて選択する最初の場所として、TensorFlow Lite の例のセクションと Kaggle モデルを使用します。これらのソースには通常、TensorFlow Lite で使用するためにキュレートされた最新のモデルがあり、開発プロセスを高速化するためのサンプルコードが頻繁に含まれています。

TensorFlow モデル

通常の TensorFlow モデルは TensorFlow Lite 形式に変換できます。モデルの変換の詳細については、TensorFlow Lite コンバータのドキュメントをご覧ください。TensorFlow モデルは、Kaggle モデルTensorFlow Model Garden にあります。