Python에서 LiteRT를 사용하는 것은 Linux 기반의 임베디드 기기에 적합합니다. 예를 들면 Raspberry Pi와 Edge TPU를 사용하는 Coral 기기 많은 기술이 있습니다.
이 페이지에서는 Python으로 LiteRT 모델 실행을 시작하는 방법을 몇 분 정도 소요됩니다 TensorFlow로 변환된 TensorFlow 모델만 라이트 버전 (아직 변환된 모델이 없는 경우 아래에 링크된 예와 함께 제공되는 모델을 사용하여 실험)
LiteRT 런타임 패키지 정보
Python으로 LiteRT 모델 실행을 빠르게 시작하려면
LiteRT 인터프리터만 사용합니다.
이 간소화된 Python 패키지 tflite_runtime
를 호출합니다.
tflite_runtime
패키지는 전체 tensorflow
의 일부 크기입니다.
패키지에는 추론을 실행하는 데 필요한 최소 코드가 포함되어 있습니다.
LiteRT—주로
Interpreter
Python 클래스에 대해 자세히 알아보세요. 이 작은 패키지는 실행하려고 할 때 이상적입니다.
.tflite
모델을 사용하여 대규모 TensorFlow 라이브러리로 디스크 공간 낭비를 방지합니다.
Python용 LiteRT 설치
pip를 사용하여 Linux에 설치할 수 있습니다.
python3 -m pip install tflite-runtime
지원되는 플랫폼
tflite-runtime
Python 휠은
플랫폼:
- Linux armv7l (예: Raspberry Pi OS를 실행하는 Raspberry Pi 2, 3, 4 및 Zero 2 32비트)
- Linux aarch64 (예: Debian ARM64를 실행하는 Raspberry Pi 3, 4)
- Linux x86_64
다른 플랫폼에서 LiteRT 모델을 실행하려면 전체 TensorFlow 패키지 사용 소스에서 tflite-runtime 패키지를 빌드할 수 있습니다.
Coral Edge TPU와 함께 TensorFlow를 사용하는 경우 대신 적절한 Coral 설정 문서를 따르세요.
tflite_runtime을 사용하여 추론 실행
tensorflow
모듈에서 Interpreter
를 가져오는 대신 이제 다음을 해야 합니다.
tflite_runtime
에서 가져옵니다.
예를 들어 위의 패키지를 설치한 후
label_image.py
드림
파일에서 참조됩니다. tensorflow
라이브러리가 없으므로 실패할 수 있습니다.
설치해야 합니다. 이 오류를 해결하려면 파일에서 다음 줄을 수정합니다.
import tensorflow as tf
대신 다음과 같이 표시됩니다.
import tflite_runtime.interpreter as tflite
그리고 다음 줄을 변경합니다.
interpreter = tf.lite.Interpreter(model_path=args.model_file)
다음과 같습니다.
interpreter = tflite.Interpreter(model_path=args.model_file)
이제 label_image.py
를 다시 실행합니다. 작업이 끝났습니다. LiteRT를 실행하는 중입니다.
모델을 학습시키는 작업도
반복해야 합니다
자세히 알아보기
Interpreter
API에 관한 자세한 내용은 다음을 참고하세요. Python에서 모델 로드 및 실행Raspberry Pi가 있다면 동영상 시리즈를 확인하세요. LiteRT를 사용하여 Raspberry Pi에서 객체 감지를 실행하는 방법에 대해 알아봅니다.
Coral ML 가속기를 사용 중이라면 GitHub의 Coral 예
다른 TensorFlow 모델을 LiteRT로 변환하려면 LiteRT 변환기.
tflite_runtime
휠을 만들려면 다음을 참조하세요. LiteRT Python Wheel 패키지 빌드