エッジ デバイスで高性能なクロスプラットフォーム LLM デプロイを実現するように設計された、本番環境対応のオープンソース推論フレームワーク。
Chrome、Chromebook Plus、Google Pixel Watch のオンデバイス生成 AI(LiteRT-LM)。

LiteRT-LM を選ぶ理由

Android、iOS、ウェブ、パソコンに LLM をデプロイします。
GPU と NPU のアクセラレーションでパフォーマンスを最大化します。
一般的な LLM のほか、マルチモーダル(Vision、Audio)とツール使用のサポート。

構築を開始

Linux、MacOS、Windows、Raspberry Pi でハードウェア アクセラレーションを使用する Python API。
ネイティブ Android アプリと JVM ベースのデスクトップ ツール。
専用の Metal サポートによる iOS と macOS のネイティブ統合(Swift API は近日公開予定)。
クロス プラットフォーム C++ API。

ブログとお知らせ

LiteRT-LM を使用して、ウェアラブルやブラウザベースのプラットフォームに言語モデルを大規模にデプロイします。
FunctionGemma をファインチューニングし、LiteRT-LM Tool Use API を活用した関数呼び出し機能を有効にする方法について説明します。
エッジ言語モデルの RAG、マルチモダリティ、関数呼び出しに関する最新の分析情報。

コミュニティに参加

オープンソース プロジェクトに貢献し、問題を報告して、例を確認します。
変換済みのモデルをダウンロードして、ディスカッションに参加してください。