LiteRT 用の事前トレーニング済み TensorFlow モデルと Keras モデル

LiteRT で直ちに使用できる、トレーニング済みのオープンソース モデルが多数用意されており、さまざまな ML タスクをこなすことができます。事前トレーニング済みの LiteRT モデルを使用すると、モデルを構築してトレーニングしなくても、モバイルアプリやエッジ デバイス アプリケーションに ML 機能を追加できます。このガイドでは、LiteRT で使用するトレーニング済みモデルを見つけて選択する方法について説明します。

Kaggle Models で、大規模なモデルセットの閲覧を開始できます。

アプリケーションのモデルを見つける

ユースケースに適した既存の LiteRT モデルを見つけるのは、目的によっては難しい場合があります。LiteRT で使用するモデルを見つけるおすすめの方法をいくつかご紹介します。

例: TensorFlow Lite でモデルを見つけて使用を開始する最も簡単な方法は、LiteRT の例セクションを参照して、ユースケースと類似したタスクを実行するモデルを見つけることです。この短いカタログには、一般的なユースケースのモデルが用意されています。モデルの説明と、モデルの実行と使用を開始するためのサンプルコードも含まれています。

データ入力タイプ別: ユースケースに類似した例を確認する以外に、音声、テキスト、画像、動画データなど、処理するデータのタイプを考慮して、独自のユースケースに適したモデルを見つけることもできます。ML モデルは、これらのタイプのデータのいずれかで使用するように設計されていることが多いため、使用するデータ型を処理するモデルを探すと、検討するモデルを絞り込むことができます。

一般的なユースケースの Kaggle Models の LiteRT モデルへのリンクを次に示します。

類似モデルの選択

アプリケーションが画像分類やオブジェクト検出などの一般的なユースケースに沿っている場合、バイナリサイズ、データ入力サイズ、推論速度、予測精度評価が異なる複数の TensorFlow Lite モデルから選択することになる可能性があります。複数のモデルから選択する場合は、まず最も制約の厳しい条件(モデルのサイズ、データのサイズ、推論速度、精度)に基づいて選択肢を絞り込む必要があります。

最も制限の厳しい制約がわからない場合は、モデルのサイズが最も厳しい制約であると想定して、利用可能な最小のモデルを選択します。小さなモデルを選択すると、モデルを正常にデプロイして実行できるデバイスの点で最も柔軟性が高くなります。通常、モデルが小さいほど推論が速くなり、予測が速いほどエンドユーザーのエクスペリエンスが向上します。通常、小さいモデルの精度率は低いため、予測精度が最も重要な場合は、大きいモデルを選択する必要があります。

モデルのソース

TensorFlow Lite で使用するモデルを見つけて選択する際の最初の目的地として、LiteRT の例Kaggle モデルを使用します。これらのソースには通常、LiteRT で使用する最新のキュレートされたモデルが含まれており、開発プロセスを加速させるためのサンプルコードも頻繁に含まれています。

TensorFlow モデル

通常の TensorFlow モデルを TensorFlow Lite 形式に変換できます。モデルの変換の詳細については、TensorFlow Lite コンバータのドキュメントをご覧ください。TensorFlow モデルは、Kaggle ModelsTensorFlow Model Garden で見つけることができます。