Wszystkie nowe funkcje środowiska wykonawczego Google o wysokiej wydajności na potrzeby AI na urządzeniu będą dostępne wyłącznie w LiteRT. Aplikacje korzystające z pakietów TensorFlow Lite będą nadal działać, ale wszystkie nowe aktualizacje będą dostępne tylko w pakietach LiteRT. Interfejsy LiteRT API zawierają te same nazwy metod co interfejsy TF Lite API, więc migracja do LiteRT nie wymaga szczegółowych zmian w kodzie.
Informacje o zmianach nazw pakietów znajdziesz w tych przewodnikach po migracji na poszczególnych platformach.
Migracja na Androida
Aby przeprowadzić migrację aplikacji na Androida za pomocą TensorFlow Lite, zastąp zależność org.tensorflow:tensorflow-lite zależnością com.google.ai.edge.litert. Repozytorium Maven LiteRT zawiera te pakiety:
com.google.ai.edge.litert:litertcom.google.ai.edge.litert:litert-gpucom.google.ai.edge.litert:litert-metadatacom.google.ai.edge.litert:litert-support
Możesz to zmienić w zależnościach build.gradle:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.4.1`
}
Usługi Google Play
LiteRT w środowisku wykonawczym Usług Play nadal korzysta z zależności play-services-tflite. Jeśli Twoja aplikacja korzysta już z biblioteki wykonawczej Usług Play z TensorFlow Lite, nie musisz wprowadzać żadnych zmian w kodzie.
Aby używać LiteRT w Usługach Play, dodaj do build.gradlezależności te elementy:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Migracja za pomocą Pythona
Aby przenieść kod w Pythonie za pomocą TensorFlow Lite, zastąp pakiet PIP z tflite-runtime na ai-edge-litert.
Zainstaluj LiteRT za pomocą PIP:
$ python3 -m pip install ai-edge-litert
Zaimportuj LiteRT w ten sposób:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
Inne biblioteki
Pakiety SDK w językach Swift i Objective-C na iOS, pakiet SDK C++, biblioteka zadań i biblioteka Model Maker nadal są dostępne w interfejsach API TensorFlow Lite. Aplikacje korzystające z tych pakietów SDK lub bibliotek nie powinny przechodzić na LiteRT.