Migrazione a LiteRT da TensorFlow Lite

Tutti i nuovi sviluppi per il runtime ad alte prestazioni di Google per l'IA on-device essere esclusivamente su LiteRT. Le applicazioni che utilizzano i pacchetti TensorFlow Lite continuano a funzionare, ma tutti i nuovi aggiornamenti verranno inclusi solo in LiteRT . Le API LiteRT contengono gli stessi nomi di metodi delle API TF Lite, quindi la migrazione a LiteRT non richiede modifiche dettagliate al codice.

Per le modifiche del nome del pacchetto, consulta le seguenti guide alla migrazione per piattaforme di terze parti.

Eseguire la migrazione con Android

Per eseguire la migrazione di un'app Android utilizzando Tensorflow Lite, sostituisci la dipendenza dalle ore org.tensorflow:tensorflow-lite alle ore com.google.ai.edge.litert. La Repository Maven LiteRT include i seguenti pacchetti:

Puoi apportare questa modifica nelle dipendenze build.gradle:

dependencies {
  ...
  implementation `com.google.ai.edge.litert:litert:1.0.1`
}

Play Services

LiteRT nel runtime di Play Services continua a utilizzare play-services-tflite la dipendenza. Se la tua app utilizza già il runtime di Play Services con TensorFlow Lite non richiede modifiche al codice.

Per usare LiteRT in Play Services, aggiungi quanto segue a build.gradle delle dipendenze:

dependencies {
...
    // LiteRT dependencies for Google Play services
    implementation 'com.google.android.gms:play-services-tflite-java:16.0.1'
    // Optional: include LiteRT Support Library
    implementation 'com.google.android.gms:play-services-tflite-support:16.0.1'
...
}

Esegui la migrazione con Python

Per eseguire la migrazione del codice Python utilizzando Tensorflow Lite, sostituisci il pacchetto PIP da Da tflite-runtime a ai-edge-litert.

Installa LiteRT con PIP:

$ python3 -m pip install ai-edge-litert

Importa LiteRT con quanto segue:

from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)

Altre biblioteche

SDK Swift e Objective-C per iOS, SDK C++, libreria di attività e Model Maker continua a esistere nelle API TensorFlow Lite. Applicazioni che utilizzano questi Non deve essere eseguita la migrazione degli SDK o delle librerie a LiteRT.