Gemma 系列开放模型包含各种模型大小、功能和专门针对任务的变体,可帮助您构建自定义生成式解决方案。在应用中使用 Gemma 模型时,您可以遵循以下主要路径:
- 选择一个模型,并在应用中按原样部署
- 选择一个模型,针对特定任务对其进行调优,然后将其部署在应用中,或与社区共享。
本指南可帮助您开始选择模型、测试其功能,以及根据需要调整为应用选择的模型。
试用 Gemma 3 在 Kaggle 上获取 在 Hugging Face 上获取
选择模型
本部分将帮助您了解 Gemma 模型系列的官方变体,并为您的应用选择合适的模型。模型变体提供通用功能或专门用于特定任务,并且以不同的参数大小提供,以便您选择具有首选功能且符合计算要求的模型。
Gemma 模型列表
下表列出了 Gemma 模型系列的主要变体及其预期部署平台:
参数大小 | 输入 | 输出 | Variant | 基础 | 目标平台 |
---|---|---|---|---|---|
1B | 文本 | 文本 | Gemma 3 | 移动设备和单板计算机 | |
2B | 文本 | 文本 | Gemma 2 | 移动设备和笔记本电脑 | |
Gemma 1 | |||||
30 亿 | 文字、图片 | 文本 | Gemma 2 | 桌面设备和小型服务器 | |
40 亿 | 文字、图片 | 文本 | Gemma 3 | 桌面设备和小型服务器 | |
70 亿 | 文本 | 文本 | Gemma 1 | 桌面设备和小型服务器 | |
90 亿 | 文本 | 文本 | Gemma 2 | 高端桌面设备和服务器 | |
10B | 文字、图片 | 文本 | Gemma 2 | 高端桌面设备和服务器 | |
120 亿 | 文字、图片 | 文本 | Gemma 3 | 高端桌面设备和服务器 | |
270 亿 | 文字、图片 | 文本 | Gemma 3 | 大型服务器或服务器集群 | |
文本 | 文本 | Gemma 2 | |||
280 亿 | 文字、图片 | 文本 | Gemma 2 | 大型服务器或服务器集群 |
Gemma 系列模型还包括专用模型和研究模型,包括 ShieldGemma、DataGemma、Gemma Scope 和 Gemma-APS。
测试模型
您可以通过设置包含下载的模型和支持软件的开发环境来测试 Gemma 模型。然后,您可以向模型提问并评估其回答。将以下任一 Python 笔记本与首选机器学习框架搭配使用,以设置测试环境并提示 Gemma 模型:
在 AI Studio 中测试 Gemma 3
您可以使用 Google AI Studio 快速测试 Gemma,而无需设置开发环境。您可以通过此 Web 应用向 Gemma 提出问题,并评估其功能。
如需在 Google AI Studio 中试用 Gemma 3,请执行以下操作:
打开 AI Studio。
在右侧的运行设置面板中,模型字段中,选择其他大小的 Gemma 模型。
在中央面板底部,输入提示,然后选择运行。
如需详细了解如何使用 AI Studio,请参阅 Google AI Studio 快速入门。
调优模型
您可以通过对 Gemma 模型进行调优来更改其行为。为了调整模型,您需要一个包含足够数量且具有足够变化的输入和预期响应的数据集,以指导模型的行为。与运行 Gemma 模型以生成文本相比,您还需要大量的计算和内存资源才能完成调优运行。使用以下任一 Python 笔记本设置调优开发环境并调优 Gemma 模型:
后续步骤
如需了解如何使用 Gemma 构建更多解决方案,请参阅以下指南: