查看 Gemma Cookbook 代码库,了解生成和优化示例!
了解详情
使用 Gemma 进行设备端生成
使用集合让一切井井有条
根据您的偏好保存内容并对其进行分类。
借助 MediaPipe LLM 推断,您可以在完全设备端运行 Gemma 模型
API。通过
LLM Inference API 可充当大型语言模型的封装容器,
Gemma 基于设备构建模型,用于处理常见的文本到文本生成任务,例如
检索、电子邮件起草和文档汇总。
通过 MediaPipe 试用 LLM 推断 API
Studio
基于网络的应用,用于评估和自定义设备上的模型。
LLM Inference API 可在以下平台上使用:
如需了解详情,请参阅 MediaPipe LLM 推断
文档。
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可获得了许可,并且代码示例已根据 Apache 2.0 许可获得了许可。有关详情,请参阅 Google 开发者网站政策。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2024-08-16。
[[["易于理解","easyToUnderstand","thumb-up"],["解决了我的问题","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["没有我需要的信息","missingTheInformationINeed","thumb-down"],["太复杂/步骤太多","tooComplicatedTooManySteps","thumb-down"],["内容需要更新","outOfDate","thumb-down"],["翻译问题","translationIssue","thumb-down"],["示例/代码问题","samplesCodeIssue","thumb-down"],["其他","otherDown","thumb-down"]],["最后更新时间 (UTC):2024-08-16。"],[],[]]