Android 생태계는 다양한 신경 처리 장치 (NPU)가 있는 다양한 기기를 포함합니다. 이러한 특수 NPU를 활용하면 CPU 또는 GPU 실행에 비해 LiteRT (TFLite) 모델 추론을 크게 가속화하고 에너지 소비를 줄여 애플리케이션의 사용자 환경을 개선할 수 있습니다.
NPU를 제조하는 칩 공급업체는 앱이 각 사용자 기기에서 특정 하드웨어를 사용할 수 있도록 LiteRT 대리인을 제공합니다.
Qualcomm® AI Engine Direct Delegate
Qualcomm® AI Engine Direct Delegate를 사용하면 사용자가 AI Engine Direct 런타임을 사용하여 LiteRT 모델을 실행할 수 있습니다. 이 대리자는 Qualcomm의 Neural Networks API를 기반으로 합니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-01-08(UTC)"],[],[]]