LiteRT 모델 빌드

이 페이지에서는 LiteRT 모델 형식으로 변환할 목적으로 TensorFlow 모델을 빌드하는 방법을 안내합니다. LiteRT에서 사용하는 머신러닝 (ML) 모델은 원래 TensorFlow 핵심 라이브러리와 도구를 사용하여 빌드되고 학습됩니다. TensorFlow 핵심으로 모델을 빌드한 후에는 LiteRT 모델이라는 더 작고 효율적인 ML 모델 형식으로 변환할 수 있습니다.

변환할 모델이 이미 있는 경우 모델 변환 개요 페이지에서 모델 변환에 관한 안내를 확인하세요.

모델 빌드

특정 사용 사례를 위한 맞춤 모델을 빌드하는 경우 TensorFlow 모델을 개발하고 학습시키거나 기존 모델을 확장하는 것부터 시작해야 합니다.

모델 설계 제약 조건

모델 개발 프로세스를 시작하기 전에 LiteRT 모델의 제약 조건을 알고 이러한 제약 조건을 염두에 두고 모델을 빌드해야 합니다.

  • 제한된 컴퓨팅 기능 - CPU가 여러 개 있고 메모리 용량이 높으며 GPU 및 TPU와 같은 특수 프로세서가 있는 완벽한 서버와 비교할 때 모바일 및 에지 기기는 훨씬 제한적입니다. 컴퓨팅 성능과 특수 하드웨어 호환성이 향상되고 있지만, 효과적으로 처리할 수 있는 모델과 데이터는 여전히 비교적 제한적입니다.
  • 모델 크기 - 데이터 전처리 로직과 모델의 레이어 수를 비롯한 모델의 전체 복잡성이 모델의 메모리 내 크기를 늘립니다. 큰 모델은 허용할 수 없을 정도로 느리게 실행되거나 모바일 또는 에지 기기의 사용 가능한 메모리에 맞지 않을 수 있습니다.
  • 데이터 크기 - 머신러닝 모델로 효과적으로 처리할 수 있는 입력 데이터의 크기는 모바일 또는 에지 기기에서 제한됩니다. 언어 라이브러리, 이미지 라이브러리, 동영상 클립 라이브러리와 같은 대규모 데이터 라이브러리를 사용하는 모델은 이러한 기기에 적합하지 않을 수 있으며 기기 외부 저장소 및 액세스 솔루션이 필요할 수 있습니다.
  • 지원되는 TensorFlow 작업 - LiteRT 런타임 환경은 일반 TensorFlow 모델에 비해 머신러닝 모델 작업의 하위 집합을 지원합니다. LiteRT와 함께 사용할 모델을 개발할 때는 LiteRT 런타임 환경의 기능에 대한 모델의 호환성을 추적해야 합니다.

LiteRT용으로 효과적이고 호환 가능하며 고성능 모델을 빌드하는 방법에 관한 자세한 내용은 성능 권장사항을 참고하세요.

모델 개발

LiteRT 모델을 빌드하려면 먼저 TensorFlow 핵심 라이브러리를 사용하여 모델을 빌드해야 합니다. TensorFlow 핵심 라이브러리는 ML 모델을 빌드, 학습, 배포하는 API를 제공하는 하위 수준 라이브러리입니다.

TFLite 빌드 워크플로

TensorFlow는 이를 수행하는 두 가지 경로를 제공합니다. 자체 맞춤 모델 코드를 개발하거나 TensorFlow Model Garden에서 제공되는 모델 구현으로 시작할 수 있습니다.

Model Garden

TensorFlow Model Garden은 비전 및 자연어 처리 (NLP)를 위한 다양한 최신 머신러닝 (ML) 모델의 구현을 제공합니다. 표준 데이터 세트에서 이러한 모델을 빠르게 구성하고 실행할 수 있는 워크플로 도구도 있습니다. Model Garden의 머신러닝 모델에는 전체 코드가 포함되어 있으므로 자체 데이터 세트를 사용하여 테스트, 학습 또는 재학습할 수 있습니다.

유명한 모델의 성능을 벤치마킹하거나, 최근에 발표된 연구 결과를 확인하거나, 기존 모델을 확장하려는 경우 Model Garden을 통해 ML 목표를 달성할 수 있습니다.

커스텀 모델

사용 사례가 Model Garden의 모델에서 지원되지 않는 경우 Keras와 같은 상위 수준 라이브러리를 사용하여 맞춤 학습 코드를 개발할 수 있습니다. TensorFlow의 기본사항을 알아보려면 TensorFlow 가이드를 참고하세요. 예제로 시작하려면 초급부터 전문가 수준까지의 튜토리얼로 연결되는 포인터가 포함된 TensorFlow 튜토리얼 개요를 참고하세요.

모델 평가

모델을 개발한 후에는 성능을 평가하고 최종 사용자 기기에서 테스트해야 합니다. TensorFlow는 이를 위한 몇 가지 방법을 제공합니다.

  • TensorBoard는 머신러닝 워크플로 중에 필요한 측정 및 시각화를 제공하는 도구입니다. 손실 및 정확도와 같은 실험 측정항목을 추적하고, 모델 그래프를 시각화하고, 임베딩을 저차원 공간으로 투영하는 등의 작업을 할 수 있습니다.
  • 벤치마킹 도구는 Android 벤치마크 앱, iOS 벤치마크 앱 등 지원되는 각 플랫폼에서 사용할 수 있습니다. 이러한 도구를 사용하여 중요한 성능 측정항목의 통계를 측정하고 계산하세요.

모델 최적화

TensorFlow Lite 모델에 특정한 리소스에 대한 제약 조건을 사용하면 모델 최적화를 통해 모델 성능을 보장하고 컴퓨팅 리소스를 적게 사용할 수 있습니다. 머신러닝 모델 성능은 일반적으로 추론의 크기와 속도와 정확성 간의 균형입니다. LiteRT는 현재 양자화, 프루닝, 클러스터링을 통한 최적화를 지원합니다. 이러한 기법에 대한 자세한 내용은 모델 최적화 주제를 참고하세요. TensorFlow는 이러한 기법을 구현하는 API를 제공하는 모델 최적화 툴킷도 제공합니다.

다음 단계

  • 커스텀 모델 빌드를 시작하려면 TensorFlow 핵심 문서의 초보자용 빠른 시작 튜토리얼을 참고하세요.
  • 맞춤 TensorFlow 모델을 변환하려면 모델 변환 개요를 참고하세요.
  • 연산자 호환성 가이드를 참고하여 모델이 LiteRT와 호환되는지 또는 호환되도록 추가 단계를 거쳐야 하는지 확인하세요.
  • LiteRT 모델을 효율적이고 성능이 우수하게 만드는 방법에 관한 안내는 성능 권장사항 가이드를 참고하세요.
  • 벤치마킹 도구를 사용하여 모델의 성능을 측정하는 방법을 알아보려면 성능 측정항목 가이드를 참고하세요.