LiteRT 모델 빌드

이 페이지에서는 TensorFlow 모델을 빌드하고 사용하기 위한 LiteRT 모델 형식으로 변환하려고 합니다. 머신 LiteRT에서 사용하는 학습 (ML) 모델은 원래 TensorFlow 핵심 라이브러리 및 도구로 학습되었습니다. 모델을 빌드한 후에는 TensorFlow Core를 사용하면 모델을 더 작고 효율적인 ML 모델로 변환할 수 있습니다. LiteRT 모델이라는 형식을 사용합니다.

변환할 모델이 이미 있는 경우 모델 변환 개요 페이지를 참조하세요.

모델 빌드

특정 사용 사례에 맞는 커스텀 모델을 빌드하려면 TensorFlow 모델을 개발 및 학습시키거나 기존 모델을 확장해 보세요.

모델 설계 제약 조건

모델 개발 프로세스를 시작하기 전에 먼저 제약 조건을 지정하고 이를 사용하여 모델을 염두에 두어야 합니다.

  • 제한된 컴퓨팅 기능 - 다중 CPU, 높은 메모리 용량, GPU와 같은 특수 프로세서 TPU, 모바일 및 에지 기기는 훨씬 더 제한적입니다. 그러나 컴퓨팅 성능과 특수한 하드웨어 호환성이 향상됨에 따라 효과적으로 처리할 수 있는 데이터는 여전히 상당히 제한됩니다.
  • 모델 크기 - 데이터를 포함한 모델의 전반적인 복잡성 모델의 레이어 수가 늘어나면 모델의 메모리 내 크기입니다. 대규모 모델은 용납할 수 없을 정도로 느리거나 단순히 모바일 또는 에지 기기의 사용 가능한 메모리에 맞지 않을 수 있습니다.
  • 데이터 크기 - 효과적으로 처리할 수 있는 입력 데이터의 크기 모바일 또는 에지 기기에서 제한적입니다 모델 언어 라이브러리, 이미지 라이브러리, 또는 동영상 클립 라이브러리는 이러한 장치에 맞지 않을 수 있으며 오프-디바이스 저장 및 액세스 솔루션.
  • 지원되는 TensorFlow 작업 - LiteRT 런타임 환경 일반적인 머신러닝 모델 작업에 비해 TensorFlow 모델 LiteRT와 함께 사용할 모델을 개발할 때 모델의 호환성을 추적하여 LiteRT 런타임 환경

보다 효과적이고 호환 가능한 고성능 모델을 구축하는 LiteRT에 대한 자세한 내용은 성능 권장사항을 참고하세요.

모델 개발

LiteRT 모델을 빌드하려면 먼저 TensorFlow 코어 라이브러리 TensorFlow Core 라이브러리는 ML 모델을 빌드, 학습, 배포하는 API를 제공하는 라이브러리입니다.

TFLite 빌드 워크플로

TensorFlow는 이를 위한 두 가지 경로를 제공합니다. 자체 커스텀 모델을 개발할 수 있고, Vertex AI Feature Store의 TensorFlow 모델 가든

Model Garden

TensorFlow Model Garden은 여러 최첨단 비전 및 자연어 처리 (NLP)용 머신러닝 (ML) 모델입니다. 또한 이러한 도구를 빠르게 구성하고 실행할 수 있는 워크플로 도구도 있습니다. 모델을 학습시키는 작업도 반복해야 합니다 Model Garden의 머신러닝 모델 전체 코드를 포함하여 자체 파이프라인을 사용해 테스트, 학습 또는 재학습할 수 있습니다. 데이터 세트입니다

잘 알려진 모델의 성능을 벤치마킹하고 싶다면 모델을 확장하거나 최근에 발표한 연구 결과를 토대로 Garden은 ML 목표를 달성하는 데 도움이 될 수 있습니다.

커스텀 모델

사용 사례가 Model Garden의 모델에서 지원하지 않는 경우 Keras와 같은 상위 수준의 라이브러리를 사용하여 커스텀 학습 코드를 생성합니다 TensorFlow의 기본 사항을 알아보려면 TensorFlow 가이드 시작하기 예시, TensorFlow 튜토리얼 개요에는 전문가 수준의 튜토리얼입니다.

모델 평가

모델을 개발한 후에는 모델의 성능을 평가하고 최종 사용자 기기에서 사용할 수 있습니다 TensorFlow는 이를 위한 몇 가지 방법을 제공합니다.

  • TensorBoard 측정 및 시각화를 제공하는 도구로 머신러닝 워크플로에 따라 사용하는 것이 좋습니다 손실과 같은 실험 측정항목을 추적할 수 있습니다. 모델 그래프를 시각화하고, 임베딩을 더 낮은 입체적인 공간 등이 포함됩니다.
  • 벤치마킹 도구는 지원되는 각 Android 벤치마크 앱, iOS 벤치마크 앱과 같은 플랫폼의 Android 벤치마크로 구성됩니다. 사용 중요한 실적 통계를 측정하고 계산하기 위해 측정항목입니다.

모델 최적화

TensorFlow 관련 리소스에 제약조건이 있는 경우 라이트 모델을 사용하는 경우, 모델 최적화는 모델의 성능을 향상시키는 데 도움이 될 수 있습니다. 컴퓨팅 리소스를 덜 사용합니다 머신러닝 모델 성능은 일반적으로 추론의 크기 및 속도와 정확성 간의 균형을 유지합니다. LiteRT 현재 양자화, 프루닝, 클러스터링을 통한 최적화를 지원합니다. 자세한 내용은 모델 최적화 주제를 참조하세요. 학습합니다. 또한 TensorFlow는 모델 최적화와 이를 구현하는 API를 제공하는 도구 키트가 학습합니다.

다음 단계