LiteRT(旧称 TensorFlow Lite)は Google の高性能ランタイム 開発しています幅広いユースケース向けにすぐに実行できる LiteRT モデルが TensorFlow、PyTorch、JAX のモデルを変換して実行することで、 AI Edge の変換ツールと最適化ツールを使用して TFLite 形式を作成します。
主な機能
オンデバイス ML 向けに最適化: LiteRT では ODML の主な制約: レイテンシ(サーバーへのラウンドトリップなし)、プライバシー (個人データがデバイスの外部に出ることがない)、接続性(インターネット接続は 不要)、サイズ(削減されたモデルおよびバイナリサイズ)、消費電力 (効率的な推論とネットワーク接続の欠如)。
マルチプラットフォームのサポート: Android と iOS デバイス、埋め込み Linux、 マイクロコントローラ。
マルチフレームワーク モデル オプション: AI Edge はモデルを変換するツールを提供 TensorFlow、PyTorch、JAX のモデルを FlatBuffers 形式に (
.tflite
)により、Google Cloud 上で幅広い最先端のモデルを使用できます。 LiteRT。また、モデル最適化ツールを利用して、 生成します。多様な言語のサポート: Java/Kotlin、Swift、 (Objective-C、C++、Python)に対応しています。
高パフォーマンス: ハードウェア アクセラレーション GPU や iOS Core ML などの 特殊な委任を介して行います
開発ワークフロー
LiteRT 開発ワークフローでは、ML/AI の問題の特定、 その問題を解決するモデルを選択し デバイスにモデルを実装します 以下にワークフローを順を追って説明します。また、ワークフローの詳細へのリンクも記載しています。 できます。
1. ML の問題に対する最適なソリューションを特定する
LiteRT は高いレベルの柔軟性とカスタマイズ性をユーザーに提供します。 ML の問題を解決するという点でも、ML は 特定のモデルや特別な実装を必要とする ユーザーに最適ですユーザー プラグアンドプレイ ソリューションを求めている顧客は MediaPipe を好む傾向がある ToDo リストでは、 一般的な ML タスク(オブジェクト検出、オブジェクト検出、 LLM 推論です。
次のいずれかの AI Edge フレームワークを選択します。
- LiteRT: 幅広く実行できる、柔軟でカスタマイズ可能なランタイムです。 幅広いモデルを提供しています。ユースケースに適したモデルを選択し、 LiteRT 形式(必要な場合)を作成し、デバイス上で実行します。想定している場合、 LiteRT を使用するには、この先に進んでください。
- MediaPipe Tasks: デフォルト モデルを備えたプラグアンドプレイ ソリューションで、 カスタマイズが可能です。AI/ML の問題を解決するタスクを選択する 複数のプラットフォームに 実装できますMediaPipe Tasks を使用する場合は 詳しくは、MediaPipe タスクのドキュメントをご覧ください。
2. モデルを選択する
LiteRT モデルは、
FlatBuffers(.tflite
を使用)
ファイル拡張子。
LiteRT モデルは、次の方法で使用できます。
既存の LiteRT モデルを使用する: 最もシンプルな方法は、 LiteRT モデルはすでに
.tflite
形式になっています。これらのモデルでは、 追加のコンバージョンステップが必要ですLiteRT モデルは Kaggle モデル。モデルを LiteRT モデルに変換する: TensorFlow コンバータ、PyToch Converter、または JAX コンバータを使用して、モデルを FlatBuffers 形式に変換します。 (
.tflite
)して LiteRT で実行します。まずは、 次のサイトのモデル:
LiteRT モデルには、以下を含むメタデータをオプションで含めることができます。 自動化のために人間が読み取れるモデルの説明と デバイス上での推論時に前処理および後処理のパイプラインを生成できます。 詳しくは、メタデータを追加するをご覧ください。
3. モデルをアプリに統合する
LiteRT モデルを実装して、推論を完全に実行できます。 ウェブ、組み込み、モバイル デバイスで利用できます。LiteRT には API が含まれている (Python、Java、 Kotlin Android は、Swift のアプリは マイクロデバイス用の C++ があります。
お好みの環境で LiteRT モデルを実装するには、次のガイドをご覧ください。 プラットフォーム:
- Android で実行: Java/Kotlin API。
- iOS で実行: Swift を使用して iOS デバイスでモデルを実行します。 API
- マイクロで実行: 組み込みデバイスでモデルを実行 実装する方法を学びました
Android デバイスと iOS デバイスでは、ハードウェアを使用してパフォーマンスを改善できます。 加速します。どちらのプラットフォームでも、GPU を使用する 委任します。iOS では、Core ML 代理人。新しいハードウェア アクセラレータのサポートを追加するには、次の操作を行います。 独自の委任を定義するをご覧ください。
モデルタイプに基づいて、次の方法で推論を実行できます。
メタデータのないモデル: LiteRT Interpreter API の使用。複数のプラットフォームと言語に対応 (Java、Swift、C++、Objective-C、Python など)
メタデータを含むモデル: カスタム推論パイプラインを LiteRT サポート ライブラリ。
LiteRT から移行する
LiteRT ライブラリを使用するアプリは引き続き機能しますが、 新しいアクティブな開発とアップデートはすべて、LiteRT パッケージにのみ含まれます。 LiteRT API には TF Lite API と同じメソッド名が含まれているため、 ため、詳細なコード変更は必要ありません。
詳しくは、移行ガイドをご覧ください。
次のステップ
新規ユーザーの方は、LiteRT クイックスタートをご覧ください。 詳しくは、以下のセクションをご覧ください。
モデル変換
プラットフォーム ガイド