Gemma 是一个轻量级、先进的开放模型系列,采用与创建 Gemini 模型相同的研究和技术构建而成。Gemma 由 Google DeepMind 和 Google 的其他团队开发,以拉丁语 gemma(意为“宝石”)命名。Gemma 模型权重由促进创新、协作和负责任地使用人工智能 (AI) 的开发者工具提供支持。
Gemma 模型可在您的应用以及硬件、移动设备或托管服务上运行。您还可以使用调参技术自定义这些模型,使其在执行对您和您的用户至关重要的任务方面表现卓越。Gemma 模型从 Gemini 模型系列中汲取灵感和技术沿袭,旨在供 AI 开发社区进行扩展和进一步发展。
您可以使用 Gemma 模型生成文本,但也可以调整这些模型,使其专门用于执行特定任务。经调优的 Gemma 模型可以为您和您的用户提供更有针对性、更高效的生成式 AI 解决方案。请查看我们有关使用 LoRA 进行调优的指南,并尝试一下!期待看到您和 Gemma 一起开发的成果!
本开发者文档概述了可用的 Gemma 模型,以及有关如何针对特定应用运用这些模型以及调整模型的开发指南。
模型大小和功能
Gemma 模型有多种大小,因此您可以根据可用的计算资源、所需的功能和运行位置来构建生成式 AI 解决方案。如果您不确定从何处开始,不妨尝试使用 2B 参数大小,以降低资源要求并在部署模型时更加灵活。
参数大小 | 输入 | 输出 | 调优后的版本 | 目标平台 |
---|---|---|---|---|
2B | 文字 | 文字 |
|
移动设备和笔记本电脑 |
70 亿 | 文字 | 文字 |
|
桌面设备和小型服务器 |
借助 Keras 3.0 的多支持功能,您可以在 TensorFlow、JAX 和 PyTorch 上运行这些模型,甚至可以使用 JAX 的原生实现(基于 FLAX 框架)和 PyTorch。
您可以从 Kaggle Models 下载 Gemma 模型。
经调优的模型
您可以通过额外的训练来修改 Gemma 模型的行为,使模型在特定任务上表现得更好。此过程称为模型调参,虽然这种方法可以提高模型执行目标任务的能力,但它也会导致模型在其他任务中表现得更差。因此,Gemma 模型在指令调优版本和预训练版本中都可用:
- 预训练 - 这些版本的模型未针对 Gemma 核心数据训练集以外的任何特定任务或指令进行训练。在部署这些模型之前,请不要进行一些调整。
- 指令微调 - 这些版本的模型通过人类语言互动进行训练,可以响应对话输入,类似于聊天机器人。
开始使用
请查看以下指南,开始与 Gemma 一起构建解决方案:
- 使用 Gemma 生成文本 - 使用模型构建基本文本生成示例。
- 使用 LoRA 调整来调优 Gemma - 在 Gemma 2B 模型上执行 LoRA 微调。
- 使用分布式训练调整 Gemma 模型 - 将 Keras 与 JAX 后端结合使用,通过 LoRA 和模型并行处理微调 Gemma 7B 模型。
- PyTorch 中的 Gemma - 通过 PyTorch 使用 Gemma 生成文本。
- 将 Gemma 部署到生产环境 - 使用 Vertex AI 将 Gemma 部署到生产环境。