LiteRT를 사용하면 이미 학습된 다양한 오픈소스 모델을 즉시 사용하여 여러 머신러닝 작업을 실행할 수 있습니다. 사전 학습된 LiteRT 모델을 사용하면 모델을 빌드하고 학습하지 않고도 모바일 및 에지 기기 애플리케이션에 머신러닝 기능을 빠르게 추가할 수 있습니다. 이 가이드는 LiteRT에서 사용할 학습된 모델을 찾고 결정하는 데 도움이 됩니다.
Kaggle 모델에서 다양한 모델을 둘러볼 수 있습니다.
애플리케이션에 적합한 모델 찾기
달성하려는 목표에 따라 사용 사례에 맞는 기존 LiteRT 모델을 찾기가 어려울 수 있습니다. 다음은 LiteRT와 함께 사용할 모델을 검색하는 몇 가지 권장 방법입니다.
예시: TensorFlow Lite로 모델을 찾아 사용하기 시작하는 가장 빠른 방법은 LiteRT 예시 섹션을 탐색하여 사용 사례와 유사한 작업을 실행하는 모델을 찾는 것입니다. 이 짧은 예시 카탈로그는 일반적인 사용 사례에 대한 모델을 제공하며, 모델에 대한 설명과 모델을 실행하고 사용하는 데 도움이 되는 샘플 코드를 제공합니다.
데이터 입력 유형별: 사용 사례와 유사한 예시를 살펴보는 것 외에도 오디오, 텍스트, 이미지, 동영상 데이터 등 처리하려는 데이터 유형을 고려하여 자체 사용을 위한 모델을 찾을 수 있습니다. 머신러닝 모델은 이러한 유형의 데이터 중 하나와 함께 사용하도록 설계되는 경우가 많으므로 사용하려는 데이터 유형을 처리하는 모델을 찾으면 고려할 모델을 좁히는 데 도움이 될 수 있습니다.
다음은 일반적인 사용 사례에 대한 Kaggle 모델의 LiteRT 모델 링크를 나열한 것입니다.
유사한 모델 중에서 선택
애플리케이션이 이미지 분류나 객체 감지와 같은 일반적인 사용 사례를 따르는 경우 바이너리 크기, 데이터 입력 크기, 추론 속도, 예측 정확도 등급이 다양한 여러 TensorFlow Lite 모델 중에서 선택해야 할 수 있습니다. 여러 모델 중에서 선택할 때는 먼저 가장 제한적인 제약 조건(모델 크기, 데이터 크기, 추론 속도 또는 정확도)을 기준으로 옵션을 좁혀야 합니다.
가장 제한적인 제약 조건이 무엇인지 확실하지 않다면 모델 크기라고 가정하고 사용 가능한 가장 작은 모델을 선택하세요. 작은 모델을 선택하면 모델을 성공적으로 배포하고 실행할 수 있는 기기 측면에서 가장 유연합니다. 또한 작은 모델은 일반적으로 추론을 더 빠르게 생성하며, 예측 속도가 빠를수록 일반적으로 최종 사용자 환경이 개선됩니다. 일반적으로 작은 모델의 정확도 비율이 낮으므로 예측 정확도가 기본 관심사항인 경우 더 큰 모델을 선택해야 할 수 있습니다.
모델 소스
LiteRT 예 섹션과 Kaggle 모델을 TensorFlow Lite와 함께 사용할 모델을 찾고 선택하는 첫 번째 대상으로 사용하세요. 이러한 소스에는 일반적으로 LiteRT와 함께 사용할 수 있는 최신 선별 모델이 있으며 개발 프로세스를 가속화하는 샘플 코드가 자주 포함됩니다.
TensorFlow 모델
일반 TensorFlow 모델을 TensorFlow Lite 형식으로 변환할 수 있습니다. 모델 변환에 관한 자세한 내용은 TensorFlow Lite 변환기 문서를 참고하세요. Kaggle 모델 및 TensorFlow Model Garden에서 TensorFlow 모델을 찾을 수 있습니다.