LiteRT는 다양한 도구와 라이브러리를 제공하여 다양한
배포 요구사항의 등급은 다음과 같습니다.
Android 코드 생성기로 모델 인터페이스 생성
필요한 Android 래퍼 코드를 자동으로 생성하는 방법에는 두 가지가 있습니다.
메타데이터가 있는 LiteRT 모델의 경우
Android 스튜디오 ML 모델 결합 도구를 사용할 수 있습니다.
Android 스튜디오 내에서 그래픽 인터페이스를 통해 LiteRT 모델을
인터페이스에 추가되었습니다. Android 스튜디오에서 자동으로
모델을 빌드하고 모델 메타데이터를 기반으로 래퍼 클래스를 생성합니다.
LiteRT 코드 생성기는
메타데이터를 기반으로 모델 인터페이스를 자동으로 생성합니다. 현재는
Java를 사용하는 Android를 지원합니다. 래퍼 코드는
ByteBuffer를 사용하여 직접 가져올 수도 있습니다. 대신 개발자는
Bitmap 및 Rect와 같은 유형이 지정된 객체가 있는 LiteRT 모델
Android 스튜디오 사용자는 다음을 통해 코드 생성 기능에 액세스할 수도 있습니다.
Android 스튜디오 ML 바인딩
LiteRT 지원 라이브러리로 커스텀 추론 파이프라인 빌드
LiteRT 지원 라이브러리는 크로스 플랫폼 라이브러리입니다.
모델 인터페이스를 맞춤설정하고 추론 파이프라인을 빌드하는 데
도움이 되는 모델입니다 그것은
사전/사후 작업을 수행하는 다양한 유틸리티 메서드와 데이터 구조가 포함되어 있습니다.
두 가지 주요 개념입니다. 또한 이 측정항목은
TF.Image 및 TF.Text와 같은 TensorFlow 모듈을 통해
학습에서 추론을 시작합니다.
메타데이터를 사용하여 선행 학습된 모델 살펴보기
Kaggle 모델을 탐색하여
비전 및 텍스트 작업 모두를 위한 메타데이터가 포함된 선행 학습된 모델 다운로드 또한
이미지, 이미지, 동영상 등의 이미지를 시각화하는
메타데이터를 참고하세요.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-07-24(UTC)"],[],[],null,["# LiteRT inference with metadata\n\nInferencing [models with metadata](../../models/metadata) can be as easy as just\na few lines of code. LiteRT metadata contains a rich description of\nwhat the model does and how to use the model. It can empower code generators to\nautomatically generate the inference code for you, such as using the [Android\nStudio ML Binding feature](../metadata/codegen#mlbinding) or [LiteRT\nAndroid code generator](../metadata/codegen#codegen). It can also be used to\nconfigure your custom inference pipeline.\n\nTools and libraries\n-------------------\n\nLiteRT provides varieties of tools and libraries to serve different\ntiers of deployment requirements as follows:\n\n### Generate model interface with Android code generators\n\nThere are two ways to automatically generate the necessary Android wrapper code\nfor LiteRT model with metadata:\n\n1. [Android Studio ML Model Binding](./codegen#mlbinding) is tooling available\n within Android Studio to import LiteRT model through a graphical\n interface. Android Studio will automatically configure settings for the\n project and generate wrapper classes based on the model metadata.\n\n2. [LiteRT Code Generator](./codegen#codegen) is an executable that\n generates model interface automatically based on the metadata. It currently\n supports Android with Java. The wrapper code removes the need to interact\n directly with `ByteBuffer`. Instead, developers can interact with the\n LiteRT model with typed objects such as `Bitmap` and `Rect`.\n Android Studio users can also get access to the codegen feature through\n [Android Studio ML Binding](./codegen#mlbinding).\n\n### Build custom inference pipelines with the LiteRT Support Library\n\n[LiteRT Support Library](./lite_support) is a cross-platform library\nthat helps to customize model interface and build inference pipelines. It\ncontains varieties of util methods and data structures to perform pre/post\nprocessing and data conversion. It is also designed to match the behavior of\nTensorFlow modules, such as TF.Image and TF.Text, ensuring consistency from\ntraining to inferencing.\n\nExplore pretrained models with metadata\n---------------------------------------\n\nBrowse [Kaggle Models](https://www.kaggle.com/models?framework=tfLite) to\ndownload pretrained models with metadata for both vision and text tasks. Also\nsee different options of [visualizing the\nmetadata](../../models/metadata#visualize_the_metadata).\n\nLiteRT Support GitHub repo\n--------------------------\n\nVisit the [LiteRT Support GitHub\nrepo](https://github.com/tensorflow/tflite-support) for more examples and source\ncode."]]