이미 학습된 다양한 오픈소스 모델을 사용할 수 있습니다. 즉시 LiteRT로 여러 머신러닝 작업을 완수할 수 있습니다 선행 학습된 LiteRT 모델을 사용하면 머신러닝을 추가할 수 있습니다. 기능을 모바일 및 에지 기기 애플리케이션에 빠르게 제공하여 모델을 빌드하고 학습시키는 데 사용할 수 있습니다 이 가이드는 학습된 모델을 찾고 결정하는 데 도움이 되며 사용할 수 있습니다
Kaggle에서 다양한 모델 모음을 둘러볼 수 있습니다. 모델을 참조하세요.
애플리케이션에 맞는 모델 찾기
사용 사례에 맞는 기존 LiteRT 모델을 찾기가 까다로울 수 있습니다. 수행할 작업에 따라 달라질 수 있습니다. 몇 가지 권장사항을 소개해 드리겠습니다 사용하여 LiteRT에서 사용할 모델을 검색할 수 있습니다.
예: TensorFlow를 사용하여 모델을 가장 빠르게 찾고 사용하는 방법 Lite는 LLM을 활용하는 LiteRT 예시 섹션을 사용하여 사용 사례와 비슷한 작업을 수행하는 모델을 찾습니다. 이 짧은 예시 카탈로그는 실행 및 사용을 시작하는 데 필요한 모델 및 샘플 코드에 대한 설명 있습니다.
데이터 입력 유형별: 사용 사례와 유사한 예를 살펴보는 것 외에도 자체적으로 사용할 모델을 찾는 또 다른 방법은 데이터 유형을 고려하는 것입니다. 데이터 세트(예: 오디오, 텍스트, 이미지 또는 동영상 데이터)를 생성합니다. 머신 학습 모델은 종종 이러한 유형의 데이터 중 하나와 함께 사용하도록 설계됩니다. 사용할 데이터 유형을 처리하는 모델을 찾는 것이 고려할 모델 범위를 좁혀야 합니다
다음은 Kaggle의 LiteRT 모델 링크 목록입니다. 일반적인 사용 사례를 위한 모델은 다음과 같습니다.
비슷한 모델 중에서 선택
애플리케이션이 이미지 분류 또는 분류와 같은 일반적인 사용 사례를 따르는 경우 여러 TensorFlow 중 무엇을 사용할지 직접 결정해야 할 수도 있습니다 라이트 모델은 다양한 바이너리 크기, 데이터 입력 크기, 추론 속도 및 예측 정확도 등급에 사용됩니다. 여러 모델 중에서 결정할 때 가장 제한적인 제약조건(크기: 예측 속도 또는 정확성을 나타냅니다.
가장 제한적인 제약 조건이 무엇인지 확실하지 않다면, 가장 제한적인 제약 조건이 사용 가능한 가장 작은 모델을 선택합니다. 작은 모델을 선택하면 작업을 원활하게 수행할 수 있는 기기 측면에서 모델을 배포 및 실행합니다 작은 모델은 일반적으로 더 빠르게 예측이 빠르며 일반적으로 더 나은 최종 사용자를 만듭니다. 있습니다. 소형 모델은 일반적으로 정확성이 낮으므로 예측 정확성이 가장 중요한 경우 더 큰 모델을 선택하는 것이 좋습니다.
모델 소스
LiteRTTT 클래스를 사용합니다. 예시 섹션과 Kaggle 모델을 TensorFlow에서 사용할 모델을 찾고 선택하는 첫 번째 대상 라이트입니다. 이러한 소스에는 일반적으로 LiteRT로 변환하고 샘플 코드를 자주 포함하여 살펴봤습니다
TensorFlow 모델
일반 TensorFlow 모델을 TensorFlow로 변환할 수 있습니다. 라이트 형식입니다. 모델 변환에 대한 자세한 내용은 TensorFlow Lite Converter 문서를 참조하세요. TensorFlow 모델은 Kaggle 모델 및 TensorFlow 모델 정원에 위치해 있습니다.