Todo el desarrollo nuevo del entorno de ejecución de alto rendimiento de Google para la IA integrada en el dispositivo se realizará exclusivamente en LiteRT. Las aplicaciones que usan paquetes de TensorFlow Lite seguirán funcionando, pero todas las actualizaciones nuevas solo se incluirán en los paquetes de LiteRT. Las APIs de LiteRT contienen los mismos nombres de métodos que las APIs de TF Lite, por lo que la migración a LiteRT no requiere cambios de código detallados.
Para conocer los cambios en el nombre del paquete, consulta las siguientes guías de migración para plataformas específicas.
Cómo migrar con Android
Para migrar una aplicación para Android con TensorFlow Lite, reemplaza la dependencia de org.tensorflow:tensorflow-lite
a com.google.ai.edge.litert
. El repositorio de Maven de LiteRT incluye los siguientes paquetes:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
Puedes realizar este cambio en tus dependencias de build.gradle
:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Servicios de Play
LiteRT en el entorno de ejecución de los Servicios de Play sigue usando la dependencia play-services-tflite
. Si tu app ya usa el entorno de ejecución de los Servicios de Play con TensorFlow Lite, no es necesario que realices ningún cambio en el código.
Para usar LiteRT en los Servicios de Play, agrega lo siguiente a tus dependencias de build.gradle
:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Cómo migrar con Python
Para migrar el código de Python con TensorFlow Lite, reemplaza el paquete PIP de tflite-runtime
a ai-edge-litert
.
Instala LiteRT con PIP:
$ python3 -m pip install ai-edge-litert
Importa LiteRT con lo siguiente:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
Otras bibliotecas
Los SDK de Swift y Objective-C para iOS, el SDK de C++, la biblioteca de tareas y la biblioteca de Model Maker siguen existiendo en las APIs de TensorFlow Lite. Las aplicaciones que usan estos SDKs o bibliotecas no deben migrar a LiteRT.