前往 Gemma Cookbook 存放區取得產生與調整範例!
瞭解詳情
使用 Gemma 在裝置端產生
透過集合功能整理內容
你可以依據偏好儲存及分類內容。
您可以使用 MediaPipe LLM Inference API,在裝置端完整執行 Gemma 模型。LLM Inference API 可做為大型語言模型的包裝函式,讓您在裝置端執行 Gemma 模型,處理常見的文字和文字產生工作,例如資訊擷取、電子郵件草稿和文件摘要。
歡迎透過 MediaPipe Studio 試用 LLM Inference API。MediaPipe Studio 是一款網頁式應用程式,可以評估及自訂裝置端模型。
LLM Inference API 適用於下列平台:
詳情請參閱 MediaPipe LLM 推論說明文件。
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2024-04-09 (世界標準時間)。
[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"缺少我需要的資訊"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"過於複雜/步驟過多"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"過時"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"翻譯問題"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"示例/程式碼問題"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"其他"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"容易理解"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"確實解決了我的問題"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"其他"
}]