Von TensorFlow Lite zu LiteRT migrieren

Alle Neuentwicklungen für die leistungsstarke Laufzeit von Google für On-Device-KI ist exklusiv auf LiteRT verfügbar. Anwendungen, die TensorFlow Lite-Pakete verwenden, funktionieren weiterhin, aber alle neuen Updates werden nur in LiteRT aufgenommen. Pakete. Die LiteRT-APIs enthalten dieselben Methodennamen wie die TF Lite-APIs, sodass Für die Migration zu LiteRT sind keine detaillierten Codeänderungen erforderlich.

Informationen zur Änderung des Paketnamens finden Sie in den folgenden Migrationsleitfäden für spezifische Plattformen.

Mit Android migrieren

Wenn Sie eine Android-Anwendung mit Tensorflow Lite migrieren möchten, ersetzen Sie die Abhängigkeit von org.tensorflow:tensorflow-lite bis com.google.ai.edge.litert. Die LiteRT-Maven-Repository umfasst die folgenden Pakete:

Sie können diese Änderung in Ihren build.gradle-Abhängigkeiten vornehmen:

dependencies {
  ...
  implementation `com.google.ai.edge.litert:litert:1.0.1`
}

Play-Dienste

LiteRT in der Laufzeit der Play-Dienste verwendet weiterhin die play-services-tflite Abhängigkeit. Wenn Ihre App bereits die Play-Dienste-Laufzeit mit TensorFlow Lite verwenden, müssen Sie keine Änderungen am Code vornehmen.

Wenn du LiteRT in den Play-Diensten verwenden möchtest, musst du Folgendes zu deinem build.gradle hinzufügen Abhängigkeiten:

dependencies {
...
    // LiteRT dependencies for Google Play services
    implementation 'com.google.android.gms:play-services-tflite-java:16.0.1'
    // Optional: include LiteRT Support Library
    implementation 'com.google.android.gms:play-services-tflite-support:16.0.1'
...
}

Mit Python migrieren

Um Python-Code mit Tensorflow Lite zu migrieren, ersetzen Sie das PIP-Paket aus tflite-runtime in ai-edge-litert.

LiteRT mit PIP installieren:

$ python3 -m pip install ai-edge-litert

Importieren Sie LiteRT mit folgendem Code:

from ai_edge_lite.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)

Andere Bibliotheken

Swift und Objective-C SDKs für iOS, C++ SDK, Aufgabenbibliothek und Model Maker ist weiterhin in den TensorFlow Lite APIs vorhanden. Anwendungen, die diese SDKs oder Bibliotheken sollten nicht zu LiteRT migriert werden.