이미 학습된 다양한 오픈소스 모델을 사용할 수 있습니다.
즉시 LiteRT로 여러 머신러닝 작업을
완수할 수 있습니다
선행 학습된 LiteRT 모델을 사용하면 머신러닝을 추가할 수 있습니다.
기능을 모바일 및 에지 기기 애플리케이션에 빠르게 제공하여
모델을 빌드하고 학습시키는 데 사용할 수 있습니다 이 가이드는 학습된 모델을 찾고 결정하는 데 도움이 되며
사용할 수 있습니다
사용 사례에 맞는 기존 LiteRT 모델을 찾기가 까다로울 수 있습니다.
수행할 작업에 따라 달라질 수 있습니다. 몇 가지 권장사항을 소개해 드리겠습니다
사용하여 LiteRT에서 사용할 모델을 검색할 수 있습니다.
예: TensorFlow를 사용하여 모델을 가장 빠르게 찾고 사용하는 방법
Lite는 LLM을 활용하는 LiteRT
예시
섹션을 사용하여 사용 사례와 비슷한 작업을 수행하는 모델을 찾습니다.
이 짧은 예시 카탈로그는
실행 및 사용을 시작하는 데 필요한 모델 및 샘플 코드에 대한 설명
있습니다.
데이터 입력 유형별: 사용 사례와 유사한 예를 살펴보는 것 외에도
자체적으로 사용할 모델을 찾는 또 다른 방법은 데이터 유형을 고려하는 것입니다.
데이터 세트(예: 오디오, 텍스트, 이미지 또는 동영상 데이터)를 생성합니다. 머신
학습 모델은 종종 이러한 유형의 데이터 중 하나와 함께 사용하도록 설계됩니다.
사용할 데이터 유형을 처리하는 모델을 찾는 것이
고려할 모델 범위를 좁혀야 합니다
애플리케이션이 이미지 분류 또는 분류와 같은 일반적인 사용 사례를 따르는 경우
여러 TensorFlow 중 무엇을 사용할지 직접 결정해야 할 수도 있습니다
라이트 모델은 다양한 바이너리 크기, 데이터 입력 크기, 추론 속도 및
예측 정확도 등급에 사용됩니다. 여러 모델 중에서 결정할 때
가장 제한적인 제약조건(크기:
예측 속도 또는 정확성을 나타냅니다.
가장 제한적인 제약 조건이 무엇인지 확실하지 않다면, 가장 제한적인 제약 조건이
사용 가능한 가장 작은 모델을 선택합니다. 작은 모델을 선택하면
작업을 원활하게 수행할 수 있는 기기 측면에서
모델을 배포 및 실행합니다 작은 모델은 일반적으로 더 빠르게
예측이 빠르며 일반적으로 더 나은 최종 사용자를 만듭니다.
있습니다. 소형 모델은 일반적으로 정확성이 낮으므로
예측 정확성이 가장 중요한 경우 더 큰 모델을 선택하는 것이 좋습니다.
모델 소스
LiteRTTT 클래스를 사용합니다.
예시
섹션과 Kaggle 모델을
TensorFlow에서 사용할 모델을 찾고 선택하는 첫 번째 대상
라이트입니다. 이러한 소스에는 일반적으로
LiteRT로 변환하고 샘플 코드를 자주 포함하여
살펴봤습니다
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-07-24(UTC)"],[],[],null,["# Pre-trained models for LiteRT\n\nThere are a variety of already trained, open source models you can use\nimmediately with LiteRT to accomplish many machine learning tasks.\nUsing pre-trained LiteRT models lets you add machine learning\nfunctionality to your mobile and edge device application quickly, without having\nto build and train a model. This guide helps you find and decide on trained\nmodels for use with LiteRT.\n\nYou can start browsing a large set of models on [Kaggle\nModels](https://www.kaggle.com/models?framework=tfLite).\n| **Important:** Kaggle Models lists both regular TensorFlow models and TensorFlow Lite format models. These model formats are not interchangeable. TensorFlow models can be converted into LiteRT models, but that process is not reversible.\n\nFind a model for your application\n---------------------------------\n\nFinding an existing LiteRT model for your use case can be tricky\ndepending on what you are trying to accomplish. Here are a few recommended ways\nto discover models for use with LiteRT:\n\n**By example:** The fastest way to find and start using models with TensorFlow\nLite is to browse the [LiteRT\nExamples](https://github.com/tensorflow/examples/tree/master/lite/examples)\nsection to find models that perform a task which is similar to your use case.\nThis short catalog of examples provides models for common use cases with\nexplanations of the models and sample code to get you started running and using\nthem.\n\n**By data input type:** Aside from looking at examples similar to your use case,\nanother way to discover models for your own use is to consider the type of data\nyou want to process, such as audio, text, images, or video data. Machine\nlearning models are frequently designed for use with one of these types of data,\nso looking for models that handle the data type you want to use can help you\nnarrow down what models to consider.\n| **Note:** Processing video with machine learning models can frequently be accomplished with models that are designed for processing single images, depending on how fast and how many inferences you need to perform for your use case. If you intend to use video for your use case, consider using single-frame video sampling with a model built for fast processing of individual images.\n\nThe following lists links to LiteRT models on [Kaggle\nModels](https://www.kaggle.com/models?framework=tfLite) for common use cases:\n\n- [Image classification](https://www.kaggle.com/models?framework=tfLite&task=16686) models\n- [Object detection](https://www.kaggle.com/models?query=image+object+detection&framework=tfLite) models\n- [Text classification](https://www.kaggle.com/models?framework=tfLite&task=16691) models\n- [Text embedding](https://www.kaggle.com/models?framework=tfLite&query=text-embedding) models\n- [Audio speech synthesis](https://www.kaggle.com/models?framework=tfLite&query=audio-speech-synthesis) models\n- [Audio embedding](https://www.kaggle.com/models?framework=tfLite&query=audio-embedding) models\n\nChoose between similar models\n-----------------------------\n\nIf your application follows a common use case such as image classification or\nobject detection, you may find yourself deciding between multiple TensorFlow\nLite models, with varying binary size, data input size, inference speed, and\nprediction accuracy ratings. When deciding between a number of models, you\nshould narrow your options based first on your most limiting constraint: size of\nmodel, size of data, inference speed, or accuracy.\n| **Key Point:** Generally, when choosing between similar models, pick the smallest model to allow for the broadest device compatibility and fast inference times.\n\nIf you are not sure what your most limiting constraint is, assume it is the size\nof the model and pick the smallest model available. Picking a small model gives\nyou the most flexibility in terms of the devices where you can successfully\ndeploy and run the model. Smaller models also typically produce faster\ninferences, and speedier predictions generally create better end-user\nexperiences. Smaller models typically have lower accuracy rates, so you may need\nto pick larger models if prediction accuracy is your primary concern.\n\nSources for models\n------------------\n\nUse the [LiteRT\nExamples](https://github.com/tensorflow/examples/tree/master/lite/examples)\nsection and [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) as\nyour first destinations for finding and selecting models for use with TensorFlow\nLite. These sources generally have up to date, curated models for use with\nLiteRT, and frequently include sample code to accelerate your\ndevelopment process.\n\n### TensorFlow models\n\nIt is possible to [convert](./convert) regular TensorFlow models to TensorFlow\nLite format. For more information about converting models, see the [TensorFlow\nLite Converter](./convert) documentation. You can find TensorFlow models on\n[Kaggle Models](https://www.kaggle.com/models) and in the [TensorFlow Model\nGarden](https://github.com/tensorflow/models)."]]