Alle neuen Entwicklungen für die Hochleistungslaufzeit von Google für On-Device-KI werden ausschließlich auf LiteRT ausgeführt. Anwendungen, die TensorFlow Lite-Pakete verwenden, funktionieren weiterhin, aber alle neuen Updates werden nur in LiteRT-Paketen enthalten sein. Die LiteRT APIs enthalten dieselben Methodennamen wie die TF Lite APIs. Daher sind für die Migration zu LiteRT keine detaillierten Codeänderungen erforderlich.
Informationen zu Änderungen am Paketnamen finden Sie in den folgenden Migrationsanleitungen für bestimmte Plattformen.
Mit Android migrieren
Wenn Sie eine Android-Anwendung mit TensorFlow Lite migrieren möchten, ersetzen Sie die Abhängigkeit von org.tensorflow:tensorflow-lite
durch com.google.ai.edge.litert
. Das LiteRT Maven-Repository enthält die folgenden Pakete:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
Du kannst diese Änderung in den build.gradle
-Abhängigkeiten vornehmen:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Play-Dienste
LiteRT in der Play-Dienste-Laufzeit verwendet weiterhin die play-services-tflite
-Abhängigkeit. Wenn Ihre App bereits die Play-Dienste-Laufzeit mit TensorFlow Lite verwendet, müssen Sie keine Codeänderungen vornehmen.
Wenn Sie LiteRT in Play-Diensten verwenden möchten, fügen Sie den build.gradle
-Abhängigkeiten Folgendes hinzu:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Mit Python migrieren
Wenn Sie Python-Code mit TensorFlow Lite migrieren möchten, ersetzen Sie das PIP-Paket von tflite-runtime
durch ai-edge-litert
.
LiteRT mit PIP installieren:
$ python3 -m pip install ai-edge-litert
Importieren Sie LiteRT mit folgendem Befehl:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
Andere Bibliotheken
Die Swift- und Objective-C-SDKs für iOS, das C++-SDK, die Task Library und die Model Maker-Bibliothek sind weiterhin in den TensorFlow Lite APIs verfügbar. Anwendungen, die diese SDKs oder Bibliotheken verwenden, sollten nicht zu LiteRT migriert werden.