TensorFlow Lite가 이제 LiteRT로 변경되었습니다. LiteRT는 Google의 고성능 온디바이스 AI를 위한 기본 런타임입니다. 기존 TensorFlow Lite 패키지는 계속 작동하지만 향후 모든 기능 업데이트와 성능 개선사항은 LiteRT에만 적용됩니다. LiteRT는 TensorFlow Lite Interpreter API를 완전히 지원하므로 이전하려면 패키지 이름만 업데이트하면 됩니다. 로직 변경은 필요하지 않습니다.
패키지 이름 변경의 경우 특정 플랫폼에 관한 다음 이전 가이드를 참고하세요.
Android에서 이전
Tensorflow Lite를 사용하는 Android 애플리케이션을 이전하려면 org.tensorflow:tensorflow-lite에서 com.google.ai.edge.litert로 종속 항목을 바꿉니다. LiteRT Maven 저장소에는 다음 패키지가 포함됩니다.
com.google.ai.edge.litert:litertcom.google.ai.edge.litert:litert-gpucom.google.ai.edge.litert:litert-metadatacom.google.ai.edge.litert:litert-support
build.gradle 종속 항목에서 다음과 같이 변경할 수 있습니다.
dependencies {
...
implementation `com.google.ai.edge.litert:litert:2.1.0`
}
Play 서비스
Play 서비스 런타임의 LiteRT는 play-services-tflite 종속 항목을 계속 사용합니다. 앱에서 이미 TensorFlow Lite와 함께 Play 서비스 런타임을 사용하고 있다면 코드를 변경할 필요가 없습니다.
Play 서비스에서 LiteRT를 사용하려면 build.gradle 종속 항목에 다음을 추가하세요.
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Python으로 마이그레이션
Tensorflow Lite를 사용하여 Python 코드를 이전하려면 tflite-runtime에서 ai-edge-litert로 PIP 패키지를 바꿉니다.
PIP를 사용하여 LiteRT를 설치합니다.
$ python3 -m pip install ai-edge-litert
다음과 같이 LiteRT를 가져옵니다.
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
기타 라이브러리
iOS용 Swift 및 Objective-C SDK, C++ SDK, 작업 라이브러리, Model Maker 라이브러리는 TensorFlow Lite 패키지에 계속 존재합니다. 이러한 SDK 또는 라이브러리를 사용하는 애플리케이션은 LiteRT로 이전하면 안 됩니다.