מעבר ל-LiteRT מ-TensorFlow Lite

כל הפיתוחים החדשים של זמן הריצה של Google לביצועים גבוהים של AI במכשיר יתבצעו רק ב-LiteRT. אפליקציות שמשתמשות בחבילות TensorFlow Lite ימשיכו לפעול, אבל כל העדכונים החדשים ייכללו רק בחבילות LiteRT. ממשקי ה-API של LiteRT מכילים את אותם שמות של שיטות כמו ממשקי ה-API של TF Lite, כך שמעבר ל-LiteRT לא דורש שינויים מפורטים בקוד.

לשינויים בשמות החבילות, אפשר לעיין במדריכי ההעברה הבאים לפלטפורמות ספציפיות.

העברה באמצעות Android

כדי להעביר אפליקציית Android באמצעות TensorFlow Lite, מחליפים את התלות מ-org.tensorflow:tensorflow-lite ל-com.google.ai.edge.litert. מאגר ה-Maven של LiteRT כולל את החבילות הבאות:

אפשר לבצע את השינוי הזה בתלות של build.gradle:

dependencies {
  ...
  implementation `com.google.ai.edge.litert:litert:1.4.1`
}

Play Services

‫LiteRT בסביבת זמן הריצה של Play Services ממשיך להשתמש בתלות play-services-tflite. אם האפליקציה שלכם כבר משתמשת בזמן הריצה של Play Services עם TensorFlow Lite, אתם לא צריכים לבצע שינויים בקוד.

כדי להשתמש ב-LiteRT ב-Play Services, מוסיפים את הקוד הבא ל-build.gradle dependencies:

dependencies {
...
    // LiteRT dependencies for Google Play services
    implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
    // Optional: include LiteRT Support Library
    implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}

העברה באמצעות Python

כדי להעביר קוד Python באמצעות Tensorflow Lite, מחליפים את חבילת PIP מ-tflite-runtime ל-ai-edge-litert.

מתקינים את LiteRT באמצעות PIP:

$ python3 -m pip install ai-edge-litert

מייבאים את LiteRT עם הפרטים הבאים:

from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)

ספריות אחרות

‫Swift ו-Objective-C SDK ל-iOS,‏ C++ SDK,‏ Task Library ו-Model Maker ממשיכים להתקיים בספריות TensorFlow Lite APIs. אפליקציות שמשתמשות בערכות ה-SDK או בספריות האלה לא צריכות לעבור ל-LiteRT.