使用 Gemma 在裝置端產生

您可以使用 MediaPipe LLM Inference API,在裝置端完整執行 Gemma 模型。LLM Inference API 可做為大型語言模型的包裝函式,讓您在裝置端執行 Gemma 模型,處理常見的文字和文字產生工作,例如資訊擷取、電子郵件草稿和文件摘要。

歡迎透過 MediaPipe Studio 試用 LLM Inference API。MediaPipe Studio 是一款網頁式應用程式,可以評估及自訂裝置端模型。

LLM Inference API 適用於下列平台:

詳情請參閱 MediaPipe LLM 推論說明文件