Edge של Google AI
AI במכשיר לאפליקציות לנייד, לאינטרנט ולאפליקציות מוטמעות
פתרונות במכשיר, ממודלים ועד צינורות עיבוד נתונים
האצת פריסת למידת מכונה, אופטימיזציה של צינורות עיבוד נתונים וגישה קלה למודלים גדולים של שפה (LLM)
מקבץ מקצה לקצה שכולל רכיבים גם ברמה גבוהה וגם ברמה נמוכה
מה חדש בכנס I/O?
MediaPipe
קל ליצור פתרונות למידת מכונה חדשניים במכשיר
פתרון אתגרים נפוצים באמצעות MediaPipe
TensorFlow Lite
ספרייה קלילה מרובת מסגרות לפריסת מודלים בנייד, באינטרנט ובמיקרו-בקרים.
AI גנרטיבי, פועל במכשיר
ממשק API של MediaPipe LLM Inference
מריצים מודלים מסוג LLM לגמרי במכשיר ומבצעים מגוון רחב של משימות, כמו יצירת טקסט, אחזור מידע בשפה טבעית וסיכום מסמכים. ה-API מספק תמיכה מובנית במודלים גדולים של שפה (LLM) של טקסט לטקסט, כך שאתם יכולים להחיל את המודלים העדכניים ביותר של בינה מלאכותית גנרטיבית במכשיר על האפליקציות והמוצרים שלכם. מידע נוסף
Torch Generative API
לכתוב מודלים מסוג LLM עם ביצועים גבוהים ב-PyTorch, ואז להמיר אותם להפעלה במכשיר באמצעות זמן הריצה של TensorFlow Lite (TFLite). מידע נוסף
Gemini Nano
גישה למודל Gemini היעיל ביותר למשימות במכשיר דרך Android AICore. בקרוב ב-Chrome.
למה כדאי לפרוס למידת מכונה במכשירי קצה?
איטית
דילוג על הלוך ושוב בשרת כדי לעבד מדיה בקלות ובמהירות בזמן אמת.
פרטיות
ביצוע הסקת מסקנות באופן מקומי, בלי שמידע אישי רגיש יצא מהמכשיר.
עלות
שימוש במשאבי המחשוב שבמכשיר וחיסכון בעלויות של השרת.
זמינות סרטונים לצפייה ללא חיבור לאינטרנט
אין חיבור לרשת, אין בעיה.