Migrar do TensorFlow Lite para o LiteRT

Todo o novo desenvolvimento para o ambiente de execução de alto desempenho do Google para IA no dispositivo será exclusivamente no LiteRT. Os aplicativos que usam pacotes do TensorFlow Lite vão continuar funcionando, mas todas as novas atualizações serão incluídas apenas nos pacotes do LiteRT. As APIs LiteRT têm os mesmos nomes de métodos das APIs do TF Lite. Portanto, a migração para o LiteRT não exige mudanças detalhadas no código.

Para mudanças no nome do pacote, consulte os guias de migração a seguir para plataformas específicas.

Migrar com o Android

Para migrar um aplicativo Android usando o TensorFlow Lite, substitua a dependência de org.tensorflow:tensorflow-lite para com.google.ai.edge.litert. O repositório Maven do LiteRT inclui os seguintes pacotes:

Você pode fazer essa mudança nas dependências do build.gradle:

dependencies {
  ...
  implementation `com.google.ai.edge.litert:litert:1.4.1`
}

Google Play Services

O LiteRT no tempo de execução do Google Play Services continua usando a dependência play-services-tflite. Se o app já estiver usando o ambiente de execução dos Serviços do Google Play com o TensorFlow Lite, não será necessário fazer mudanças no código.

Para usar o LiteRT nos Serviços do Google Play, adicione o seguinte às dependências do build.gradle:

dependencies {
...
    // LiteRT dependencies for Google Play services
    implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
    // Optional: include LiteRT Support Library
    implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}

Migrar com Python

Para migrar o código Python usando o TensorFlow Lite, substitua o pacote PIP de tflite-runtime por ai-edge-litert.

Instale a LiteRT com PIP:

$ python3 -m pip install ai-edge-litert

Importe o LiteRT com o seguinte:

from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)

Outras bibliotecas

Os SDKs Swift e Objective-C para iOS, o SDK C++, a biblioteca de tarefas e a biblioteca Model Maker continuam existindo nas APIs do TensorFlow Lite. Os aplicativos que usam esses SDKs ou bibliotecas não devem migrar para o LiteRT.