TensorFlow Lite ist jetzt LiteRT. LiteRT ist die primäre Laufzeit für die leistungsstarke On-Device-KI von Google. Vorhandene TensorFlow Lite-Pakete funktionieren weiterhin, aber alle zukünftigen Funktionsupdates und Leistungsverbesserungen sind nur für LiteRT verfügbar. Da LiteRT die TensorFlow Lite Interpreter API vollständig unterstützt, ist für die Migration nur eine Aktualisierung des Paketnamens erforderlich. Logikänderungen sind nicht notwendig.
Informationen zu Änderungen des Paketnamens finden Sie in den folgenden Migrationsanleitungen für die jeweiligen Plattformen.
Auf Android migrieren
Wenn Sie eine Android-Anwendung mit TensorFlow Lite migrieren möchten, ersetzen Sie die Abhängigkeit von org.tensorflow:tensorflow-lite durch com.google.ai.edge.litert. Das LiteRT-Maven-Repository enthält die folgenden Pakete:
com.google.ai.edge.litert:litertcom.google.ai.edge.litert:litert-gpucom.google.ai.edge.litert:litert-metadatacom.google.ai.edge.litert:litert-support
Sie können diese Änderung in den build.gradle-Abhängigkeiten vornehmen:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:2.1.0`
}
Play-Dienste
LiteRT in der Play-Dienste-Laufzeit verwendet weiterhin die play-services-tflite-Abhängigkeit. Wenn Ihre App die Play Services-Laufzeit bereits mit TensorFlow Lite verwendet, müssen Sie keine Codeänderungen vornehmen.
Wenn Sie LiteRT in Play-Diensten verwenden möchten, fügen Sie den build.gradle-Abhängigkeiten Folgendes hinzu:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Mit Python migrieren
Wenn Sie Python-Code mit TensorFlow Lite migrieren möchten, ersetzen Sie das PIP-Paket von tflite-runtime durch ai-edge-litert.
LiteRT mit PIP installieren:
$ python3 -m pip install ai-edge-litert
Importieren Sie LiteRT mit dem folgenden Befehl:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
Andere Bibliotheken
Die Swift- und Objective-C-SDKs für iOS, das C++-SDK, die Task Library und die Model Maker-Bibliothek sind weiterhin in den TensorFlow Lite-Paketen enthalten. Anwendungen, die diese SDKs oder Bibliotheken verwenden, sollten nicht zu LiteRT migrieren.