TensorFlow Lite נקרא עכשיו LiteRT. LiteRT הוא זמן הריצה העיקרי של ה-AI במכשיר של Google, שמאפשר ביצועים גבוהים. חבילות TensorFlow Lite קיימות ימשיכו לפעול, אבל כל עדכוני התכונות ושיפורי הביצועים העתידיים יהיו בלעדיים ל-LiteRT. LiteRT תומך באופן מלא ב-TensorFlow Lite Interpreter API, ולכן כדי לבצע את המעבר צריך רק לעדכן את שם החבילה – אין צורך לבצע שינויים לוגיים.
לשינויים בשמות החבילות, אפשר לעיין במדריכי ההעברה הבאים לפלטפורמות ספציפיות.
העברה ב-Android
כדי להעביר אפליקציית Android באמצעות TensorFlow Lite, מחליפים את התלות מ-org.tensorflow:tensorflow-lite ל-com.google.ai.edge.litert. מאגר ה-Maven של LiteRT כולל את החבילות הבאות:
com.google.ai.edge.litert:litertcom.google.ai.edge.litert:litert-gpucom.google.ai.edge.litert:litert-metadatacom.google.ai.edge.litert:litert-support
אפשר לבצע את השינוי הזה בתלות של build.gradle:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:2.1.0`
}
Play Services
LiteRT בסביבת זמן הריצה של Play Services ממשיך להשתמש בתלות play-services-tflite. אם האפליקציה שלכם כבר משתמשת בזמן הריצה של Play Services עם TensorFlow Lite, אתם לא צריכים לבצע שינויים בקוד.
כדי להשתמש ב-LiteRT ב-Play Services, מוסיפים את הקוד הבא ל-build.gradle
dependencies:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
העברה באמצעות Python
כדי להעביר קוד Python באמצעות Tensorflow Lite, מחליפים את חבילת PIP מ-tflite-runtime ל-ai-edge-litert.
מתקינים את LiteRT באמצעות PIP:
$ python3 -m pip install ai-edge-litert
מייבאים את LiteRT עם הפרטים הבאים:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
ספריות אחרות
ה-SDK של Swift ו-Objective-C ל-iOS, ה-SDK של C++, ספריית המשימות וספריית Model Maker ממשיכים להתקיים בחבילות TensorFlow Lite. אפליקציות שמשתמשות בערכות ה-SDK או בספריות האלה לא צריכות לעבור ל-LiteRT.