Python을 사용하는 Linux 기반 기기의 빠른 시작

Python과 함께 TensorFlow Lite를 사용하는 방법은 특히 Raspberry PiEdge TPU가 적용된 Coral 기기와 같은 Linux 기반 내장 기기에 적합합니다.

이 페이지에서는 Python을 사용하여 단 몇 분 만에 TensorFlow Lite 모델을 실행하는 방법을 보여줍니다. TensorFlow Lite로 전환된 TensorFlow 모델만 있으면 됩니다. (아직 변환된 모델이 없는 경우 아래 링크된 예시와 함께 제공된 모델을 사용하여 실험할 수 있습니다.)

TensorFlow Lite 런타임 패키지 정보

Python으로 TensorFlow Lite 모델을 빠르게 실행하려면 모든 TensorFlow 패키지 대신 TensorFlow Lite 인터프리터만 설치하면 됩니다. 이 간소화된 Python 패키지는 tflite_runtime라고 합니다.

tflite_runtime 패키지는 전체 tensorflow 패키지 크기의 일부이며 TensorFlow Lite로 추론을 실행하는 데 필요한 최소한의 코드(주로 Interpreter Python 클래스)가 포함되어 있습니다. 이 작은 패키지는 .tflite 모델을 실행하고 대규모 TensorFlow 라이브러리로 디스크 공간을 낭비하지 않으려는 경우에 이상적입니다.

Python용 TensorFlow Lite 설치

pip를 사용하여 Linux에 설치할 수 있습니다.

python3 -m pip install tflite-runtime

지원되는 플랫폼

tflite-runtime Python 휠은 사전 빌드되어 있으며 다음 플랫폼에 제공됩니다.

  • Linux armv7l (예: Raspberry Pi OS 32비트를 실행하는 Raspberry Pi 2, 3, 4 및 Zero 2)
  • Linux aarch64 (예: Debian ARM64를 실행하는 Raspberry Pi 3, 4)
  • Linux x86_64

다른 플랫폼에서 TensorFlow Lite 모델을 실행하려면 전체 TensorFlow 패키지를 사용하거나 소스에서 tflite-runtime 패키지를 빌드해야 합니다.

TensorFlow를 Coral Edge TPU와 함께 사용하는 경우에는 대신 적절한 Coral 설정 문서를 따라야 합니다.

tflite_runtime을 사용하여 추론 실행

tensorflow 모듈에서 Interpreter를 가져오는 대신 이제 tflite_runtime에서 가져와야 합니다.

예를 들어 위의 패키지를 설치한 후 label_image.py 파일을 복사하여 실행합니다. 아마도 tensorflow 라이브러리가 설치되어 있지 않기 때문입니다. 이 문제를 해결하려면 파일의 다음 줄을 수정합니다.

import tensorflow as tf

대신 다음과 같이 표시됩니다.

import tflite_runtime.interpreter as tflite

그런 다음 아래 줄을 변경합니다.

interpreter = tf.lite.Interpreter(model_path=args.model_file)

다음과 같이 표시됩니다.

interpreter = tflite.Interpreter(model_path=args.model_file)

이제 label_image.py를 다시 실행합니다. 작업이 끝났습니다. 이제 TensorFlow Lite 모델이 실행됩니다.

자세히 알아보기