查看 Gemma Cookbook 代码库,了解生成和优化示例!
了解详情
使用 Gemma 进行设备端生成
使用集合让一切井井有条
根据您的偏好保存内容并对其进行分类。
您可以使用 MediaPipe LLM Inference API 完全在设备端运行 Gemma 模型。LLM Inference API 充当大型语言模型的封装容器,使您能够在设备上运行 Gemma 模型,以便执行常见的文本到文本生成任务,例如信息检索、电子邮件草稿和文档摘要。
将 LLM Inference API 与 MediaPipe Studio 结合使用,这是一款基于网络的应用,用于评估和自定义设备端模型。
LLM Inference API 可在以下平台上使用:
如需了解详情,请参阅 MediaPipe LLM 推断文档。
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可获得了许可,并且代码示例已根据 Apache 2.0 许可获得了许可。有关详情,请参阅 Google 开发者网站政策。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2024-04-09。
[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"没有我需要的信息"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"太复杂/步骤太多"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"内容需要更新"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"翻译问题"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"示例/代码问题"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"其他"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"易于理解"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"解决了我的问题"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"其他"
}]