Alle neuen Entwicklungen für die leistungsstarke Laufzeit von Google für KI auf dem Gerät werden ausschließlich auf LiteRT basieren. Anwendungen, die TensorFlow Lite-Pakete verwenden, funktionieren weiterhin, aber alle neuen Updates sind nur in LiteRT-Paketen enthalten. Die LiteRT-APIs enthalten dieselben Methodennamen wie die TF Lite-APIs. Für die Migration zu LiteRT sind daher keine detaillierten Codeänderungen erforderlich.
Informationen zu Änderungen des Paketnamens finden Sie in den folgenden Migrationsanleitungen für die jeweiligen Plattformen.
Mit Android migrieren
Wenn Sie eine Android-Anwendung mit TensorFlow Lite migrieren möchten, ersetzen Sie die Abhängigkeit von org.tensorflow:tensorflow-lite durch com.google.ai.edge.litert. Das LiteRT-Maven-Repository enthält die folgenden Pakete:
com.google.ai.edge.litert:litertcom.google.ai.edge.litert:litert-gpucom.google.ai.edge.litert:litert-metadatacom.google.ai.edge.litert:litert-support
Sie können diese Änderung in den build.gradle-Abhängigkeiten vornehmen:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.4.1`
}
Play-Dienste
LiteRT in der Play-Dienste-Laufzeit verwendet weiterhin die play-services-tflite-Abhängigkeit. Wenn Ihre App die Play Services-Laufzeit bereits mit TensorFlow Lite verwendet, müssen Sie keine Codeänderungen vornehmen.
Wenn Sie LiteRT in Play-Diensten verwenden möchten, fügen Sie den build.gradle-Abhängigkeiten Folgendes hinzu:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Mit Python migrieren
Wenn Sie Python-Code mit TensorFlow Lite migrieren möchten, ersetzen Sie das PIP-Paket von tflite-runtime durch ai-edge-litert.
LiteRT mit PIP installieren:
$ python3 -m pip install ai-edge-litert
Importieren Sie LiteRT mit dem folgenden Befehl:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
Andere Bibliotheken
Die Swift- und Objective-C-SDKs für iOS, das C++-SDK, die Task Library und die Model Maker-Bibliothek sind weiterhin in den TensorFlow Lite-APIs verfügbar. Anwendungen, die diese SDKs oder Bibliotheken verwenden, sollten nicht zu LiteRT migriert werden.