מסגרת מסקנות מוכנה לייצור, בקוד פתוח, שנועדה לספק פריסות של מודלים גדולים של שפה (LLM) בפלטפורמות שונות במכשירי קצה עם ביצועים גבוהים

למה LiteRT-LM?

פריסת מודלים של שפה גדולה ב-Android, ב-iOS, באינטרנט ובמחשב.
שיפור הביצועים באמצעות האצת GPU ו-NPU.
תמיכה במודלים פופולריים של LLM, כמו גם במולטי-מודאליות (ראייה, אודיו) ובשימוש בכלי עזר.
הפעלת המודלים העדכניים ביותר של קוד פתוח שעברו אופטימיזציה לשימוש במכשירים, כולל Gemma-3n,‏ Gemma-3,‏ FunctionGemma,‏ TranslateGemma,‏ Qwen3,‏ Phi-4 ועוד.

מתחילים לפתח

אפליקציות מקוריות ל-Android וכלים למחשב שמבוססים על JVM.
שילוב מקורי של iOS ו-macOS עם תמיכה מיוחדת ב-Metal (ממשקי Swift API יהיו זמינים בקרוב).
הפעלת האפליקציה ישירות בדפדפן באמצעות WebAssembly ו-WebGPU (ממשקי API של JS יהיו זמינים בקרוב).

להצטרפות לקהילה

אפשר לתרום לקוד המקור, לדווח על בעיות ולראות דוגמאות.
אתם יכולים להוריד מודלים שעברו המרה ולהצטרף לדיון.