מעבר ל-LiteRT מ-TensorFlow Lite

כל הפיתוחים החדשים של סביבת זמן הריצה בעלת הביצועים הגבוהים של Google ל-AI במכשיר להיות רק ב-LiteRT. אפליקציות שמשתמשות בחבילות TensorFlow Lite ימשיכו לפעול, אבל כל העדכונים החדשים ייכללו רק ב-LiteRT חבילות. שמות השיטות של ממשקי ה-API של LiteRT זהים לאלה של ממשקי ה-API של TF Lite, מעבר ל-LiteRT לא מחייב שינויים מפורטים בקוד.

במדריכי ההעברה הבאים מפורטים שינויים בשמות החבילה. פלטפורמות שונות.

העברה באמצעות Android

כדי להעביר אפליקציה ל-Android באמצעות Tensorflow Lite, צריך להחליף את התלות מ-org.tensorflow:tensorflow-lite עד com.google.ai.edge.litert. מאגר LiteRT Maven כולל את החבילות הבאות:

אפשר לבצע את השינוי הזה ביחסי התלות של build.gradle:

dependencies {
  ...
  implementation `com.google.ai.edge.litert:litert:1.0.1`
}

שירותי Play

LiteRT בזמן הריצה של Play Services ממשיך להשתמש בplay-services-tflite של יחסי התלות. אם האפליקציה שלך כבר משתמשת בזמן הריצה של Play Services עם TensorFlow Lite, אין צורך לבצע שינויים בקוד.

כדי להשתמש ב-LiteRT ב-Play Services, צריך להוסיף את הפרטים הבאים אל build.gradle של יחסי התלות:

dependencies {
...
    // LiteRT dependencies for Google Play services
    implementation 'com.google.android.gms:play-services-tflite-java:16.0.1'
    // Optional: include LiteRT Support Library
    implementation 'com.google.android.gms:play-services-tflite-support:16.0.1'
...
}

העברה באמצעות Python

כדי להעביר קוד Python באמצעות Tensorflow Lite, צריך להחליף את חבילת PIP מ- tflite-runtime עד ai-edge-litert.

מתקינים את LiteRT עם PIP:

$ python3 -m pip install ai-edge-litert

מייבאים את LiteRT עם הפריטים הבאים:

from ai_edge_lite.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)

ספריות אחרות

ערכות ה-SDK Swift ו-Objective-C ל-iOS , C++ SDK, ספריית משימות ו'יוצר המודלים' תמשיך להתקיים בממשקי ה-API של TensorFlow Lite. אפליקציות שמשתמשות בהרשאה הזו אסור שערכות SDK או ספריות יועברו ל-LiteRT.