LiteRT-LM を使用してオンデバイスで LLM を実行する
エッジ デバイスで高パフォーマンスのクロスプラットフォーム LLM デプロイを実現するように設計された、本番環境対応のオープンソース推論フレームワーク
LiteRT-LM を選ぶ理由
クロス プラットフォーム
Android、iOS、ウェブ、パソコンに LLM をデプロイします。
ハードウェア アクセラレーション
GPU と NPU のアクセラレーションでパフォーマンスを最大化します。
幅広い生成 AI 機能
一般的な LLM のほか、マルチモーダル(Vision、Audio)とツール使用のサポート。
サポートされているモデル
Gemma-3n、Gemma-3、FunctionGemma、TranslateGemma、Qwen3、Phi-4 など、エッジ向けに最適化された最新のオープンモデルを実行します。
コミュニティに参加
GitHub
ソースコードに貢献したり、問題を報告したり、例を確認したりできます。
Hugging Face
変換済みのモデルをダウンロードして、ディスカッションに参加してください。