온디바이스 AI를 위한 Google의 고성능 런타임을 위한 모든 새로운 개발은 LiteRT에서만 제공됩니다. TensorFlow Lite 패키지를 사용하는 애플리케이션은 계속 작동하지만 모든 새로운 업데이트는 LiteRT에만 포함됩니다. 패키지입니다 LiteRT API는 TF Lite API와 동일한 메서드 이름을 포함하므로, LiteRT로 마이그레이션할 때는 세부적인 코드 변경이 필요하지 않습니다.
패키지 이름 변경에 관한 구체적인 내용은 다음 이전 가이드를 참고하세요. 지원합니다
Android로 이전
Tensorflow Lite를 사용하여 Android 애플리케이션을 이전하려면 종속 항목을 교체하세요.
org.tensorflow:tensorflow-lite
에서 com.google.ai.edge.litert
(으)로 변경되었습니다. 이
LiteRT Maven 저장소
다음 패키지가 포함됩니다.
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
build.gradle
종속 항목에서 이렇게 변경할 수 있습니다.
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Play 서비스
Play 서비스 런타임의 LiteRT는 계속해서 play-services-tflite
를 사용합니다.
종속됩니다. 앱에서 이미 다음과 같이 Play 서비스 런타임을 사용 중인 경우
TensorFlow Lite를 사용하면 코드를 변경할 필요가 없습니다.
Play 서비스에서 LiteRT를 사용하려면 build.gradle
에 다음을 추가하세요.
종속 항목:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.0.1'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.0.1'
...
}
Python으로 마이그레이션
Tensorflow Lite를 사용하여 Python 코드를 마이그레이션하려면
tflite-runtime
에서 ai-edge-litert
(으)로
PIP로 LiteRT를 설치합니다.
$ python3 -m pip install ai-edge-litert
다음을 사용하여 LiteRT를 가져옵니다.
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
기타 라이브러리
iOS용 Swift 및 Objective-C SDK, C++ SDK, 작업 라이브러리 및 Model Maker TensorFlow Lite API에 계속 존재할 것입니다. 이 기능을 사용하는 애플리케이션은 SDK 또는 라이브러리를 LiteRT로 이전하면 안 됩니다.