LiteRT-LM を使用してオンデバイスで LLM を実行する
エッジ デバイスで高性能なクロスプラットフォーム LLM デプロイを実現するように設計された、本番環境対応のオープンソース推論フレームワーク。
スポットライト
Chrome、Chromebook Plus、Google Pixel Watch のオンデバイス生成 AI(LiteRT-LM)。
LiteRT-LM を選ぶ理由
クロス プラットフォーム
Android、iOS、ウェブ、パソコンに LLM をデプロイします。
ハードウェア アクセラレーション
GPU と NPU のアクセラレーションでパフォーマンスを最大化します。
幅広い生成 AI 機能
一般的な LLM のほか、マルチモーダル(Vision、Audio)とツール使用のサポート。
ブログとお知らせ
Chrome、Chromebook Plus、Google Pixel Watch のオンデバイス生成 AI
LiteRT-LM を使用して、ウェアラブルやブラウザベースのプラットフォームに言語モデルを大規模にデプロイします。
Google AI Edge ギャラリーのオンデバイス関数呼び出し
FunctionGemma をファインチューニングし、LiteRT-LM Tool Use API を活用した関数呼び出し機能を有効にする方法について説明します。
Google AI Edge の小規模言語モデル、マルチモーダル、関数呼び出し
エッジ言語モデルの RAG、マルチモダリティ、関数呼び出しに関する最新の分析情報。
コミュニティに参加
GitHub の LiteRT-LM
オープンソース プロジェクトに貢献し、問題を報告して、例を確認します。
Hugging Face
変換済みのモデルをダウンロードして、ディスカッションに参加してください。