Python을 사용하는 Linux 기반 기기의 빠른 시작

Python에서 LiteRT를 사용하는 것은 Linux 기반의 임베디드 기기에 적합합니다. 예를 들면 Raspberry PiEdge TPU를 사용하는 Coral 기기 많은 기술이 있습니다.

이 페이지에서는 Python으로 LiteRT 모델 실행을 시작하는 방법을 몇 분 정도 소요됩니다 TensorFlow로 변환된 TensorFlow 모델만 라이트 버전 (아직 변환된 모델이 없는 경우 아래에 링크된 예와 함께 제공되는 모델을 사용하여 실험)

LiteRT 런타임 패키지 정보

Python으로 LiteRT 모델 실행을 빠르게 시작하려면 LiteRT 인터프리터만 사용합니다. 이 간소화된 Python 패키지 tflite_runtime를 호출합니다.

tflite_runtime 패키지는 전체 tensorflow의 일부 크기입니다. 패키지에는 추론을 실행하는 데 필요한 최소 코드가 포함되어 있습니다. LiteRT—주로 Interpreter Python 클래스에 대해 자세히 알아보세요. 이 작은 패키지는 실행하려고 할 때 이상적입니다. .tflite 모델을 사용하여 대규모 TensorFlow 라이브러리로 디스크 공간 낭비를 방지합니다.

Python용 LiteRT 설치

pip를 사용하여 Linux에 설치할 수 있습니다.

python3 -m pip install tflite-runtime

지원되는 플랫폼

tflite-runtime Python 휠은 플랫폼:

  • Linux armv7l (예: Raspberry Pi OS를 실행하는 Raspberry Pi 2, 3, 4 및 Zero 2 32비트)
  • Linux aarch64 (예: Debian ARM64를 실행하는 Raspberry Pi 3, 4)
  • Linux x86_64

다른 플랫폼에서 LiteRT 모델을 실행하려면 전체 TensorFlow 패키지 사용 소스에서 tflite-runtime 패키지를 빌드할 수 있습니다.

Coral Edge TPU와 함께 TensorFlow를 사용하는 경우 대신 적절한 Coral 설정 문서를 따르세요.

tflite_runtime을 사용하여 추론 실행

tensorflow 모듈에서 Interpreter를 가져오는 대신 이제 다음을 해야 합니다. tflite_runtime에서 가져옵니다.

예를 들어 위의 패키지를 설치한 후 label_image.py 드림 파일에서 참조됩니다. tensorflow 라이브러리가 없으므로 실패할 수 있습니다. 설치해야 합니다. 이 오류를 해결하려면 파일에서 다음 줄을 수정합니다.

import tensorflow as tf

대신 다음과 같이 표시됩니다.

import tflite_runtime.interpreter as tflite

그리고 다음 줄을 변경합니다.

interpreter = tf.lite.Interpreter(model_path=args.model_file)

다음과 같습니다.

interpreter = tflite.Interpreter(model_path=args.model_file)

이제 label_image.py를 다시 실행합니다. 작업이 끝났습니다. LiteRT를 실행하는 중입니다. 모델을 학습시키는 작업도 반복해야 합니다

자세히 알아보기