چارچوب استنتاج متن‌باز و آماده برای تولید که برای ارائه استقرارهای LLM با کارایی بالا و چند پلتفرمی در دستگاه‌های لبه طراحی شده است.

چرا LiteRT-LM؟

LLM ها را در اندروید، iOS، وب و دسکتاپ مستقر کنید.
با شتاب‌دهی GPU و NPU، عملکرد را به حداکثر برسانید.
پشتیبانی از LLM های محبوب و همچنین چندوجهی (تصویری، صوتی) و استفاده از ابزار.
جدیدترین مدل‌های باز بهینه شده برای لبه، از جمله Gemma-3n، Gemma-3، FunctionGemma، TranslateGemma، Qwen3، Phi-4 و موارد دیگر را اجرا کنید.

شروع به ساختن کنید

برنامه‌های بومی اندروید و ابزارهای دسکتاپ مبتنی بر JVM.
ادغام بومی iOS و macOS با پشتیبانی تخصصی Metal (به‌زودی APIهای Swift ارائه می‌شوند).
مستقیماً در مرورگر با WebAssembly و WebGPU اجرا کنید (به‌زودی APIهای JS نیز اضافه می‌شوند).

به انجمن بپیوندید

در کد منبع مشارکت کنید، مشکلات را گزارش دهید و مثال‌ها را ببینید.
مدل‌های از پیش تبدیل‌شده را دانلود کنید و به بحث بپیوندید.