LiteRT (Lite 執行階段的簡稱) 是 Google 的裝置端 AI 高效能執行階段,先前稱為 TensorFlow Lite。您可以找到可立即執行的 LiteRT 模型,用於各種機器學習/人工智慧工作,也可以使用 AI Edge 轉換和最佳化工具,將 TensorFlow、PyTorch 和 JAX 模型轉換為 TFLite 格式並執行。
主要功能與特色
針對裝置端機器學習進行最佳化:LiteRT 解決了五項主要的 ODML 限制:延遲 (不會與伺服器進行來回傳輸)、隱私權 (不會將個人資料從裝置傳出)、連線 (不需要網路連線)、大小 (縮減模型和二進位大小) 和耗電量 (有效推論且沒有網路連線)。
多個架構模型選項:AI Edge 提供工具,可將 TensorFlow、PyTorch 和 JAX 模型轉換為 FlatBuffers 格式 (
.tflite
),讓您在 LiteRT 上使用多種頂尖模型。您也可以使用模型最佳化工具,處理量化和中繼資料。支援多種程式語言:包含 Java/Kotlin、Swift、Objective-C、C++ 和 Python 的 SDK。
高效能:透過 GPU 和 iOS Core ML 等專屬代理程式,執行硬體加速。
開發工作流程
LiteRT 開發工作流程包括找出機器學習/AI 問題、選擇可解決該問題的模型,以及在裝置上實作模型。請按照下列步驟操作,我們會引導您完成工作流程,並提供進一步操作說明的連結。
1. 找出最適合解決機器學習問題的解決方案
LiteRT 可為使用者提供高度的彈性和自訂性,以解決機器學習問題,因此非常適合需要特定模型或專門實作的使用者。如果您需要即插即用解決方案,建議使用 MediaPipe 工作,因為這項工具提供常見機器學習工作的現成解決方案,例如物件偵測、文字分類和 LLM 推論。
選擇下列任一 AI Edge 架構:
- LiteRT:彈性且可自訂的執行階段,可執行各種模型。為用途選擇模型,將模型轉換為 LiteRT 格式 (如有必要),然後在裝置上執行。如果您打算使用 LiteRT,請繼續閱讀。
- MediaPipe 工作:隨插即用解決方案,內含可自訂的預設模型。選擇可解決 AI/ML 問題的工作,並在多個平台上實作。如果您想使用 MediaPipe Tasks,請參閱 MediaPipe Tasks 說明文件。
2. 選擇模型
LiteRT 模型以 FlatBuffers 這種高效率可攜格式呈現,該格式使用 .tflite
副檔名。
您可以透過下列方式使用 LiteRT 模型:
使用現有的 LiteRT 模型:最簡單的方法是使用已採用
.tflite
格式的 LiteRT 模型。這些模型不需要任何額外的轉換步驟。您可以在 Kaggle 模型中找到 LiteRT 模型。將模型轉換為 LiteRT 模型:您可以使用 TensorFlow 轉換工具、PyTorch 轉換工具或 JAX 轉換工具,將模型轉換為 FlatBuffers 格式 (
.tflite
),並在 LiteRT 中執行。如要開始使用,您可以在下列網站上找到模型:- TensorFlow 模型:Kaggle 模型和 Hugging Face
- PyTorch 模型 (在 Hugging Face 和
torchvision
上) - Hugging Face 上的 JAX 模型
LiteRT 模型可以選擇納入中繼資料,其中包含使用者可理解的模型說明,以及機器可解讀的資料,用來在裝置端推論期間自動產生預先處理和後續處理管線。詳情請參閱「新增中繼資料」。
3. 將模型整合至應用程式
您可以實作 LiteRT 模型,在網頁、嵌入式裝置和行動裝置上完全在裝置端執行推論。LiteRT 包含適用於 Python、Android 適用的 Java 和 Kotlin、iOS 適用的 Swift 以及微型裝置適用的 C++ 的 API。
請參閱下列指南,在您偏好的平台上導入 LiteRT 模型:
- 在 Android 上執行:使用 Java/Kotlin API 在 Android 裝置上執行模型。
- 在 iOS 上執行:使用 Swift API 在 iOS 裝置上執行模型。
- 在微型裝置上執行:使用 C++ API 在嵌入式裝置上執行模型。
您可在 Android 和 iOS 裝置上使用硬體加速功能提升效能。在這兩種平台上均可使用 GPU 委任,在 iOS 上可使用 Core ML 委任。如要額外支援新硬體加速器,您可以定義自己的委任。
您可按照模型類型,透過下列方式執行推論:
不含中繼資料的模型:使用 LiteRT Interpreter API。支援多種平台和程式語言,例如 Java、Swift、C++、Objective-C 和 Python。
包含中繼資料的模型:您可以使用 LiteRT 支援資料庫建立自訂推論管線。
從 TF Lite 遷移
使用 TF Lite 程式庫的應用程式仍可繼續運作,但所有新的開發和更新作業都只會納入 LiteRT 套件。LiteRT API 包含與 TF Lite API 相同的方法名稱,因此遷移至 LiteRT 不需要進行詳細的程式碼變更。
詳情請參閱遷移指南。
後續步驟
新使用者應先參閱 LiteRT 快速入門指南。如需詳細資訊,請參閱下列各節:
模型轉換
平台指南