デバイス上の ML の効率的な変換、ランタイム、最適化。
LiteRT は単に新しいだけでなく、世界で最も広く導入されている機械学習ランタイムの次世代版です。この技術は、日常的に使用するアプリを支え、数十億台のデバイスで低レイテンシと高いプライバシー保護を実現しています。

最も重要な Google アプリで信頼されている

10 万件以上のアプリケーション、数十億人のグローバル ユーザー

LiteRT のハイライト

LiteRT 経由でデプロイする

トレーニングからデバイス上でのデプロイまで、ディープ ラーニングのワークフローを効率化します。
.tflite 事前トレーニング済みモデルを使用するか、PyTorch、JAX、TensorFlow のモデルを .tflite に変換します。
LiteRT 最適化ツールキットを使用して、トレーニング後にモデルを量子化します。
LiteRT を使用してモデルをデプロイし、アプリに最適なアクセラレータを選択します。

開発パスを選択する

LiteRT を使用して、高性能なモバイルアプリからリソースが制限された IoT デバイスまで、あらゆる場所に AI をデプロイできます。
LiteRT に移行して、プラットフォーム(Android、デスクトップ、ウェブ)全体でパフォーマンスの向上と API の統合を実現します。
PyTorch モデルがあり、オンデバイスのビジョンまたはオーディオ エクスペリエンスを実装したい。
Gemma などの最適化されたオープンウェイト生成 AI モデルや、その他のオープンウェイト モデルを使用して、高度なオンデバイス chatbot を作成する。
カスタムモデルの作成、またはピーク パフォーマンスを実現するためのハードウェア固有の CPU/GPU/NPU の詳細な最適化。

サンプル、モデル、デモ

事前トレーニング済みで、すぐに使用できる生成 AI モデル。
LiteRT を使用したオンデバイス ML/生成 AI のユースケースを紹介するギャラリー。

ブログとお知らせ

LiteRT チームからの最新のお知らせ、技術的な解説、パフォーマンス ベンチマークを常に把握できます。
Google の統合オンデバイス ML フレームワーク。高性能なデプロイのために TFLite から進化しました。
高効率の AI を実現するため、MediaTek チップセットへの NPU アクセラレーション サポートを拡大。
Qualcomm ニューラル プロセッシング ユニットで生成 AI の画期的なパフォーマンスを実現。
ハードウェアの自動選択と非同期実行のための CompiledModel API を導入しました。
LiteRT-LM を使用して、ウェアラブルやブラウザベースのプラットフォームに言語モデルをデプロイします。
エッジ言語モデルの RAG、マルチモダリティ、関数呼び出しに関する最新の分析情報

コミュニティに参加

プロジェクトに直接貢献し、コア デベロッパーとコラボレーションします。
Hugging Face Hub で最適化されたオープンウェイト モデルにアクセスします。
オンデバイス ML を次のレベルに引き上げる準備はできましたか?ドキュメントで詳細をご確認のうえ、今すぐ構築を始めましょう。