נשען על הבסיס שנבדק בקרב של TensorFlow Lite
LiteRT הוא לא רק חדש, הוא הדור הבא של זמן הריצה של למידת מכונה שהכי נפוץ בעולם. היא מפעילה את האפליקציות שבהן אתם משתמשים מדי יום, ומספקת זמן אחזור נמוך ורמת פרטיות גבוהה במיליארדי מכשירים.
אפליקציות Google הכי חשובות מסתמכות עליו
יותר מ-100,000 אפליקציות, מיליארדי משתמשים ברחבי העולם
LiteRT Highlights
מוכן לשימוש בפלטפורמות שונות
שימוש ב-AI גנרטיבי
שיפור מהירות באמצעות חומרה
תמיכה במספר מסגרות
פריסה באמצעות LiteRT
לייעל את תהליך העבודה של למידה עמוקה, החל מהאימון ועד לפריסה במכשיר.
1.מקבלים מודל
משתמשים במודלים שעברו אימון מראש בפורמט .tflite או ממירים מודלים של PyTorch, JAX או TensorFlow לפורמט .tflite.
2.אופטימיזציה
אפשר להשתמש בערכת הכלים לאופטימיזציה של LiteRT כדי לכמת את המודלים אחרי האימון.
3.ריצה
פורסים את המודל באמצעות LiteRT ובוחרים את המאיץ האופטימלי לאפליקציה.
בחירת מסלול הפיתוח
אפשר להשתמש ב-LiteRT כדי לפרוס AI בכל מקום – מאפליקציות לנייד עם ביצועים גבוהים ועד למכשירי IoT עם משאבים מוגבלים.
משתמש קיים ב-TFLite
מעבר ל-LiteRT כדי ליהנות מביצועים משופרים ומממשקי API מאוחדים בפלטפורמות שונות (Android, מחשב, אינטרנט).
BYOM : Bring your own Models
יש לכם מודל PyTorch ואתם רוצים להטמיע במכשיר חוויות שקשורות לראייה או לשמיעה.
פריסת מודלים של AI גנרטיבי
יצירת צ'אטבוטים מתוחכמים במכשיר באמצעות מודלים אופטימליים של AI גנרטיבי עם משקלים פתוחים, כמו Gemma או מודל אחר עם משקלים פתוחים.
[Advanced] מומחה למודלים
יצירת מודלים בהתאמה אישית או ביצוע אופטימיזציות עמוקות של מעבד/מעבד גרפי/מעבד עצבי ספציפי לחומרה כדי להשיג ביצועים אופטימליים.
דוגמאות, מודלים והדגמות
אפליקציה לדוגמה של LiteRT ב-GitHub
אפליקציות לדוגמה מלאות מקצה לקצה.
צפייה במודלים של AI גנרטיבי
מודלים של AI גנרטיבי שעברו אימון מראש ומוכנים לשימוש.
לצפייה בהדגמות – אפליקציית Google AI Edge Gallery
גלריה שמציגה תרחישים לדוגמה של למידת מכונה (ML) או AI גנרטיבי (GenAI) במכשיר באמצעות LiteRT.
בלוגים והודעות
כדאי להתעדכן בהודעות האחרונות, בניתוחים טכניים מעמיקים ובמדדי ביצועים של צוות LiteRT.
LiteRT: מסגרת אוניברסלית ל-AI מובנה במכשיר
מסגרת מאוחדת של Google ללמידת מכונה במכשיר, שמתפתחת מ-TFLite לפריסה עם ביצועים גבוהים.
MediaTek NPU ו-LiteRT: טכנולוגיות שמפעילות את הדור הבא של AI מובנה במכשיר
הרחבת התמיכה בהאצת NPU לערכות שבבים של MediaTek ל-AI יעיל במיוחד.
שיפור הביצועים ב-NPU של Qualcomm באמצעות LiteRT
שיפור משמעותי בביצועים של AI גנרטיבי ביחידות לעיבוד עצבי של Qualcomm.
LiteRT: מקסימום ביצועים, בצורה פשוטה
חדש: CompiledModel API לבחירת חומרה אוטומטית ולהרצה אסינכרונית.
GenAI במכשיר ב-Chrome, ב-Chromebook Plus וב-Pixel Watch עם LiteRT-LM
פריסת מודלים של שפה במכשירים לבישים ובפלטפורמות מבוססות-דפדפן באמצעות LiteRT-LM.
מודלים קטנים של שפה (LLM) של Google AI Edge, מולטי-מודאליות וקריאה לפונקציות
תובנות עדכניות לגבי RAG, מולטי-מודאליות ובקשות להפעלת פונקציות במודלים של שפה בפריסה קרובה למשתמש
להצטרפות לקהילה
קהילת LiteRT ב-GitHub
לתרום ישירות לפרויקט ולשתף פעולה עם מפתחי הליבה.
Hugging Face Hub
גישה למודלים פתוחים שעברו אופטימיזציה ב-Hugging Face Hub.