Alle Neuentwicklungen für die leistungsstarke Laufzeit von Google für On-Device-KI ist exklusiv auf LiteRT verfügbar. Anwendungen, die TensorFlow Lite-Pakete verwenden, funktionieren weiterhin, aber alle neuen Updates werden nur in LiteRT aufgenommen. Pakete. Die LiteRT-APIs enthalten dieselben Methodennamen wie die TF Lite-APIs, sodass Für die Migration zu LiteRT sind keine detaillierten Codeänderungen erforderlich.
Informationen zur Änderung des Paketnamens finden Sie in den folgenden Migrationsleitfäden für spezifische Plattformen.
Mit Android migrieren
Wenn Sie eine Android-Anwendung mit Tensorflow Lite migrieren möchten, ersetzen Sie die Abhängigkeit
von org.tensorflow:tensorflow-lite
bis com.google.ai.edge.litert
. Die
LiteRT-Maven-Repository
umfasst die folgenden Pakete:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
Sie können diese Änderung in Ihren build.gradle
-Abhängigkeiten vornehmen:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Play-Dienste
LiteRT in der Laufzeit der Play-Dienste verwendet weiterhin die play-services-tflite
Abhängigkeit. Wenn Ihre App bereits die Play-Dienste-Laufzeit mit
TensorFlow Lite verwenden, müssen Sie keine Änderungen am Code vornehmen.
Wenn du LiteRT in den Play-Diensten verwenden möchtest, musst du Folgendes zu deinem build.gradle
hinzufügen
Abhängigkeiten:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.0.1'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.0.1'
...
}
Mit Python migrieren
Um Python-Code mit Tensorflow Lite zu migrieren, ersetzen Sie das PIP-Paket aus
tflite-runtime
in ai-edge-litert
.
LiteRT mit PIP installieren:
$ python3 -m pip install ai-edge-litert
Importieren Sie LiteRT mit folgendem Code:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
Andere Bibliotheken
Swift und Objective-C SDKs für iOS, C++ SDK, Aufgabenbibliothek und Model Maker ist weiterhin in den TensorFlow Lite APIs vorhanden. Anwendungen, die diese SDKs oder Bibliotheken sollten nicht zu LiteRT migriert werden.