LiteRT 用の事前トレーニング済みモデル

使用できるトレーニング済みオープンソース モデルが多数ある 多くの ML タスクを実行できます。 事前トレーニング済みの LiteRT モデルを使用すると、ML を追加できる 迅速にモバイル デバイスやエッジデバイス アプリケーションに機能を追加できます。 モデルを構築してトレーニングできますこのガイドでは、トレーニング済みモデルを見つけて LiteRT で使用できます。

まず、Kaggle で多数のモデルを参照できます。 モデル

アプリケーションのモデルを見つける

ユースケースに合った既存の LiteRT モデルを見つけるのが難しい場合がある 目標に応じて使い分けることができますおすすめの方法を紹介します LiteRT で使用するモデルを検出できます。

例: TensorFlow でモデルを見つけて使い始める最も簡単な方法 Lite では、LiteRT の 例 セクションにアクセスして、ユースケースに類似したタスクを実行するモデルを探してください。 この短いサンプルカタログでは、一般的なユースケースのモデルが モデルとサンプルコードに関する説明を学習しました。 できます。

データ入力タイプ別: ユースケースに類似した例を除き、 自分で使用するモデルを見つけるもう一つの方法は、データのタイプを考慮することです。 (音声、テキスト、画像、動画データなど)に指定します。機械 ML モデルは多くの場合、この種のデータのいずれかで使用するように設計されており、 使用したいデータ型を処理するモデルを探せば 検討すべきモデルを絞り込めます

以下は、Kaggle で公開されている LiteRT モデルへのリンクです。 一般的なユースケース向けのモデル:

類似モデルから選択する

アプリケーションが一般的なユースケース(画像分類、 複数の TensorFlow オブジェクト検出を さまざまなバイナリサイズ、データ入力サイズ、推論速度、 予測精度評価です複数のモデルの中から まず、最も制限の大きい制約、すなわち「クラウドのサイズ」という モデル、データのサイズ、推論速度、精度です。

最も制約のある制約が不明な場合は、制約を 利用可能な最小のモデルを選びます。小さなモデルを選んだら デバイスに関して最も柔軟性が高く、 モデルをデプロイして実行しますまた、モデルが小さいほど、生成までの時間も短くなるのが一般的です。 推論と予測の高速化により、一般的にエンドユーザーは 体験できます通常、モデルが小さいほど精度は落ちるため、必要に応じて 予測精度が主な関心事ならば、より大きなモデルを選べます。

モデルのソース

LiteRT 例 セクションおよび Kaggle モデルとして、 TensorFlow で使用するモデルを見つけて選択する最初の場所 。通常、これらのソースには、以下で使用するために厳選された最新のモデルがある アプリケーションの開発を高速化するためのサンプルコードが頻繁に含まれています。 開発プロセスに集中できます。

TensorFlow モデル

通常の TensorFlow モデルを TensorFlow に変換可能 Lite 形式。モデルの変換の詳細については、TensorFlow の Lite コンバータのドキュメントをご覧ください。TensorFlow モデルは Kaggle モデルTensorFlow モデル 庭園