TensorFlow Lite용 선행 학습된 모델

이미 학습된 다양한 오픈소스 모델을 TensorFlow Lite와 함께 즉시 사용하여 많은 머신러닝 작업을 수행할 수 있습니다. 선행 학습된 TensorFlow Lite 모델을 사용하면 모델을 빌드하고 학습시킬 필요 없이 모바일 및 에지 기기 애플리케이션에 머신러닝 기능을 빠르게 추가할 수 있습니다. 이 가이드는 TensorFlow Lite와 함께 사용할 학습된 모델을 찾고 결정하는 데 도움이 됩니다.

Kaggle 모델에서 대규모 모델 세트를 둘러볼 수 있습니다.

애플리케이션에 맞는 모델 찾기

수행하려는 작업에 따라 사용 사례에 맞는 기존 TensorFlow Lite 모델을 찾기가 까다로울 수 있습니다. 다음은 TensorFlow Lite에서 사용할 모델을 검색하는 데 권장되는 몇 가지 방법입니다.

예시: TensorFlow Lite로 모델을 찾아 사용하는 가장 빠른 방법은 TensorFlow Lite 예시 섹션을 탐색하여 사용 사례와 유사한 작업을 수행하는 모델을 찾는 것입니다. 이 짧은 예시 카탈로그는 모델 실행과 사용을 시작할 수 있도록 모델 및 샘플 코드에 대한 설명과 함께 일반적인 사용 사례를 제공합니다.

데이터 입력 유형별: 사용 사례와 유사한 예를 살펴보는 것 외에도 자체적으로 사용할 수 있는 모델을 찾는 또 다른 방법은 오디오, 텍스트, 이미지 또는 동영상 데이터와 같은 처리하려는 데이터 유형을 고려하는 것입니다. 머신러닝 모델은 종종 이러한 데이터 유형 중 하나와 함께 사용하도록 설계되므로 사용할 데이터 유형을 처리하는 모델을 찾으면 고려할 모델의 범위를 좁히는 데 도움이 됩니다.

다음은 일반적인 사용 사례를 위해 Kaggle 모델의 TensorFlow Lite 모델 링크 목록입니다.

비슷한 모델 중에서 선택

애플리케이션이 이미지 분류 또는 객체 감지와 같은 일반적인 사용 사례를 따르는 경우 바이너리 크기, 데이터 입력 크기, 추론 속도, 예측 정확도 평점이 다양한 여러 TensorFlow Lite 모델 중에서 결정해야 할 수 있습니다. 여러 모델 중에서 결정할 때는 모델 크기, 데이터 크기, 추론 속도, 정확성 등 가장 제한적인 제약조건을 먼저 기준으로 옵션 범위를 좁혀야 합니다.

가장 제한적인 제약조건이 무엇인지 잘 모르겠다면 이를 모델의 크기라고 가정하고 사용 가능한 가장 작은 모델을 선택하세요. 작은 모델을 선택하면 모델을 성공적으로 배포하고 실행할 수 있는 기기 측면에서 유연성이 극대화됩니다. 또한 모델이 작을수록 일반적으로 더 빠른 추론이 생성되며, 예측이 더 빠르면 일반적으로 더 나은 최종 사용자 환경이 제공됩니다. 일반적으로 모델은 소형일수록 정확성률이 낮으므로 예측 정확성이 가장 중요하다면 대형 모델을 선택해야 할 수 있습니다.

모델 소스

TensorFlow Lite와 함께 사용할 모델을 찾고 선택하는 첫 번째 대상으로 TensorFlow Lite 예시 섹션 및 Kaggle 모델을 사용하세요. 이러한 소스에는 일반적으로 TensorFlow Lite와 함께 사용하기 위해 선별된 최신 모델이 있으며 개발 프로세스 가속화를 위한 샘플 코드가 포함되는 경우가 많습니다.

TensorFlow 모델

일반 TensorFlow 모델을 TensorFlow Lite 형식으로 변환할 수 있습니다. 모델 변환에 대한 자세한 내용은 TensorFlow Lite 변환기 문서를 참조하세요. Kaggle 모델TensorFlow 모델 가든에서 TensorFlow 모델을 찾을 수 있습니다.