このページでは、TensorFlow モデルの構築に関するガイダンスを LiteRT モデル形式に変換することもできます。マシン LiteRT で使用する学習(ML)モデルは、 TensorFlow のコアライブラリとツールを使用して トレーニングすることもできますモデルを構築した後、 より小型で効率的な ML モデルに変換できます。 というのが特徴です。
変換するモデルがすでにある場合は、モデルの変換 概要ページをご覧ください。
モデルの構築
特定のユースケース向けのカスタムモデルを構築する場合は、 TensorFlow モデルの開発とトレーニングも、既存のモデルの拡張も簡単です。
モデル設計の制約
モデルの開発プロセスを開始する前に、 使用してモデルを構築できます。 留意してください。
- 限定的なコンピューティング能力 - 完全版のサーバーと比べると、 複数の CPU、大容量メモリ、GPU などの専用プロセッサ TPU、モバイル デバイス、エッジデバイスははるかに限定されています。利用しながら 演算能力や特殊なハードウェアの互換性の向上により、 効果的に処理できるデータはまだそれほど多くありません
- モデルのサイズ - データを含む、モデルの全体的な複雑さ モデル内のレイヤ数を増やすと、 モデルのメモリ内サイズです。大規模なモデルは、実行速度が許容できないほど遅くなることや、 モバイル デバイスやエッジデバイスの使用可能なメモリに収まらない場合があります。
- データのサイズ - 効果的に処理できる入力データのサイズ モバイル デバイスやエッジデバイスで制限されます。モデル 大規模なデータ ライブラリ(言語ライブラリ、画像ライブラリ、 または動画クリップ ライブラリはこれらのデバイスには合わない場合があります。また、 オフデバイスのストレージとアクセスの ソリューションを提供します
- サポートされている TensorFlow 演算 - LiteRT ランタイム環境 通常のオペレーションと比べて、ML モデルのオペレーションのサブセットをサポート TensorFlow モデル。LiteRT で使用するモデルを開発するときは、 モデルの機能に対するモデルの互換性を LiteRT ランタイム環境。
組織向けの効果的で互換性のある高性能なモデルを構築する方法について詳しくは、 LiteRT については、パフォーマンスに関するベスト プラクティスをご覧ください。
モデルの開発
LiteRT モデルを構築するには、まず TensorFlow コアライブラリ。TensorFlow のコアライブラリは、Terraform は ML モデルを構築、トレーニング、デプロイするための API を提供するライブラリ。
TensorFlow には、これを行うための 2 つの方法が用意されています。独自のカスタム イベントを作成して Google Cloud で利用可能なモデルの実装から始めることも TensorFlow Model Garden
Model Garden
TensorFlow Model Garden では、さまざまな最先端のモデルを実装できます。 画像処理と自然言語処理(NLP)用の ML モデル。 また、ワークフロー ツールを使用して、ワークフローを手早く構成して実行することもできます。 トレーニング済みモデルです。Model Garden の ML モデル 完全なコードを含めると、独自のコードを使用してテスト、トレーニング、再トレーニングできます。 説明します。
有名なモデルのパフォーマンスをベンチマークする場合でも、 モデルを拡張したりすることもできますが、 Garden は ML の目標達成に役立ちます。
カスタムモデル
Model Garden のモデルでサポートされていないユースケースの場合は、 Keras などの高水準ライブラリを使用して、 必要があります。TensorFlow の基礎については、 TensorFlow ガイド。まず TensorFlow チュートリアルの 概要には、アプリケーションの エキスパートレベルのチュートリアルを 受講できます
モデルの評価
モデルを開発したら、そのパフォーマンスを評価し、 エンドユーザーのデバイスでしか実行できません。TensorFlow には、そのための方法がいくつか用意されています。
- TensorBoard は、測定と可視化のためのツールであり、 ML ワークフローについて説明します損失などのテスト指標を追跡できる モデルグラフの可視化、エンベディングの下位レベルへの射影 多次元空間など多岐にわたります。
- サポートされている各プラットフォームでベンチマーク ツールが利用可能 プラットフォーム(Android ベンチマーク アプリや iOS のベンチマーク アプリなど)向けに開発されています。使用 これらのツールを使用して、重要なパフォーマンスの統計を測定、算出できます。 できます。
モデルの最適化
TensorFlow 固有のリソースに対する制約 Lite モデルでは、モデルを最適化することでモデルのパフォーマンスを良好に維持できます。 コンピューティング リソースも少なくなります。ML モデルのパフォーマンスは通常 精度と推論のサイズと速度のバランスを取ります。LiteRT は現在、量子化、プルーニング、クラスタリングによる最適化をサポートしています。詳しくは、 これらの詳細については、モデルの最適化のトピックをご覧ください。 分析できますTensorFlow はモデルの最適化も提供しています。 ツールキットがあり、これらを実装する API が 分析できます
次のステップ
- カスタムモデルの作成を開始するには、初心者向けクイックスタートをご覧ください。 TensorFlow コアドキュメントの チュートリアルをご覧ください
- カスタム TensorFlow モデルを変換するには、モデルの変換に関するページ 概要をご覧ください。
- 演算子の互換性に関するガイドを参照して、 モデルが LiteRT と互換性がある場合や、 互換性を持たせるための追加の手順が必要です。
- 詳しくは、パフォーマンスに関するベスト プラクティス ガイドをご覧ください。 LiteRT モデルの効率とパフォーマンスが向上します
- 測定方法については、パフォーマンス指標ガイドをご覧ください。 ベンチマーク ツールを使用して、モデルのパフォーマンスを評価できます。