כל הפיתוחים החדשים של סביבת זמן הריצה בעלת הביצועים הגבוהים של Google ל-AI במכשיר להיות רק ב-LiteRT. אפליקציות שמשתמשות בחבילות TensorFlow Lite ימשיכו לפעול, אבל כל העדכונים החדשים ייכללו רק ב-LiteRT חבילות. שמות השיטות של ממשקי ה-API של LiteRT זהים לאלה של ממשקי ה-API של TF Lite, מעבר ל-LiteRT לא מחייב שינויים מפורטים בקוד.
במדריכי ההעברה הבאים מפורטים שינויים בשמות החבילה. פלטפורמות שונות.
העברה באמצעות Android
כדי להעביר אפליקציה ל-Android באמצעות Tensorflow Lite, צריך להחליף את התלות
מ-org.tensorflow:tensorflow-lite
עד com.google.ai.edge.litert
.
מאגר LiteRT Maven
כולל את החבילות הבאות:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
אפשר לבצע את השינוי הזה ביחסי התלות של build.gradle
:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
שירותי Play
LiteRT בזמן הריצה של Play Services ממשיך להשתמש בplay-services-tflite
של יחסי התלות. אם האפליקציה שלך כבר משתמשת בזמן הריצה של Play Services עם
TensorFlow Lite, אין צורך לבצע שינויים בקוד.
כדי להשתמש ב-LiteRT ב-Play Services, צריך להוסיף את הפרטים הבאים אל build.gradle
של יחסי התלות:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.0.1'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.0.1'
...
}
העברה באמצעות Python
כדי להעביר קוד Python באמצעות Tensorflow Lite, צריך להחליף את חבילת PIP מ-
tflite-runtime
עד ai-edge-litert
.
מתקינים את LiteRT עם PIP:
$ python3 -m pip install ai-edge-litert
מייבאים את LiteRT עם הפריטים הבאים:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
ספריות אחרות
ערכות ה-SDK Swift ו-Objective-C ל-iOS , C++ SDK, ספריית משימות ו'יוצר המודלים' תמשיך להתקיים בממשקי ה-API של TensorFlow Lite. אפליקציות שמשתמשות בהרשאה הזו אסור שערכות SDK או ספריות יועברו ל-LiteRT.