LiteRT 벤치마크 도구는 다음 중요한 성능 측정항목의 통계를 측정하고 계산합니다.
- 초기화 시간
- 준비 상태의 추론 시간
- 안정 상태의 추론 시간
- 초기화 시간 동안의 메모리 사용량
- 전체 메모리 사용량
CompiledModel 벤치마크 도구는 C++ 바이너리 benchmark_model로 제공됩니다. GPU 가속이 사용 설정된 Android, Linux, macOS, Windows, 삽입된 기기에서 셸 명령줄로 이 도구를 실행할 수 있습니다.
사전 빌드된 벤치마크 바이너리 다운로드
다음 링크를 따라 야간 빌드 미리 빌드 명령줄 바이너리를 다운로드합니다.
소스에서 벤치마크 바이너리 빌드
소스에서 벤치마크 바이너리를 빌드할 수 있습니다.
bazel build -c opt //litert/tools:benchmark_model
Android NDK 도구 모음으로 빌드하려면 먼저 이 가이드에 따라 빌드 환경을 설정하거나 이 가이드에 설명된 대로 Docker 이미지를 사용해야 합니다.
bazel build -c opt --config=android_arm64 \
//litert/tools:benchmark_model
벤치마크 실행
벤치마크를 실행하려면 셸에서 바이너리를 실행합니다.
path/to/downloaded_or_built/benchmark_model \
--graph=your_model.tflite \
--num_threads=4
더 많은 매개변수 옵션은 benchmark_model의 소스 코드에서 확인할 수 있습니다.
GPU 가속 벤치마크
이러한 사전 빌드된 바이너리에는 LiteRT GPU 가속기가 포함됩니다. Kubernetes는
- Android: OpenCL
- Linux: OpenCL 및 WebGPU (Vulkan으로 지원)
- macOS: Metal
- Windows: WebGPU (Direct3D 지원)
GPU 가속기를 사용하려면 --use_gpu=true 플래그를 전달합니다.
프로필 모델 작업
벤치마크 모델 바이너리를 사용하면 모델 작업을 프로파일링하고 각 연산자의 실행 시간을 확인할 수도 있습니다. 이렇게 하려면 호출 중에 --use_profiler=true 플래그를 benchmark_model에 전달합니다.