Wszystkie nowe prace nad wydajnym środowiskiem wykonawczym Google do obsługi AI na urządzeniu będą dostępne wyłącznie w ramach LiteRT. Aplikacje korzystające z pakietów TensorFlow Lite będą nadal będzie działać, ale wszystkie nowe aktualizacje będą uwzględniane tylko w LiteRT przesyłek. Interfejsy API LiteRT zawierają te same nazwy metod co interfejsy TF Lite API, nie wymaga wprowadzania szczegółowych zmian w kodzie.
W przypadku zmiany nazwy pakietu zapoznaj się z poniższymi przewodnikami po migracji dotyczącymi określonych platform.
Migracja z Androidem
Aby przeprowadzić migrację aplikacji na Androida za pomocą Tensorflow Lite, zastąp zależność
od org.tensorflow:tensorflow-lite
do com.google.ai.edge.litert
.
Repozytorium LiteRT Maven
obejmuje następujące pakiety:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
Tę zmianę możesz wprowadzić w zależnościach typu build.gradle
:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Usługi Google Play
LiteRT w środowisku wykonawczym Usług Google Play nadal używa play-services-tflite
zależności. Jeśli Twoja aplikacja korzysta już ze środowiska wykonawczego Usług Google Play z
Dzięki TensorFlow Lite nie musisz wprowadzać żadnych zmian w kodzie.
Aby używać LiteRT w Usługach Google Play, dodaj do build.gradle
zależności:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.0.1'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.0.1'
...
}
Migracja z użyciem Pythona
Aby przenieść kod Pythona za pomocą Tensorflow Lite, zastąp pakiet PIP z
tflite-runtime
do ai-edge-litert
.
Zainstaluj LiteRT z PIP:
$ python3 -m pip install ai-edge-litert
Importuj LiteRT z:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
Inne biblioteki
pakiety SDK Swift i Objective-C na iOS i C++, bibliotekę zadań oraz Kreatora modeli, w interfejsach API TensorFlow Lite nadal będzie biblioteka. Aplikacje używające tych funkcji Pakiety SDK ani biblioteki nie powinny być przenoszone do LiteRT.