Gemma — это семейство легких современных открытых моделей, созданных на основе тех же исследований и технологий, которые использовались при создании моделей Gemini . Gemma, разработанная Google DeepMind и другими командами Google, названа в честь латинского gemma , что означает «драгоценный камень». Веса модели Gemma поддерживаются инструментами разработчиков, которые способствуют инновациям, сотрудничеству и ответственному использованию искусственного интеллекта (ИИ).
Модели Gemma доступны для запуска в ваших приложениях, на вашем оборудовании, мобильных устройствах или размещенных службах. Вы также можете настроить эти модели, используя методы настройки, чтобы они превосходно выполняли задачи, важные для вас и ваших пользователей. Модели Gemma черпают вдохновение и технологические корни из семейства моделей Gemini и созданы для того, чтобы сообщество разработчиков ИИ могло расширяться и развиваться дальше.
Вы можете использовать модели Gemma для генерации текста, однако вы также можете настроить эти модели для выполнения конкретных задач. Настроенные модели Gemma могут предоставить вам и вашим пользователям более целевые и эффективные генеративные решения искусственного интеллекта. Ознакомьтесь с нашим руководством по настройке с помощью LoRA и попробуйте! Мы с нетерпением ждем возможности увидеть, что вы создадите вместе с Джеммой!
В этой документации для разработчиков представлен обзор доступных моделей Gemma и руководства по их применению и настройке для конкретных приложений.
Размеры и возможности модели
Модели Gemma доступны в нескольких размерах, поэтому вы можете создавать генеративные решения искусственного интеллекта на основе имеющихся у вас вычислительных ресурсов, необходимых вам возможностей и того, где вы хотите их запускать. Если вы не знаете, с чего начать, попробуйте размер параметра 2B, поскольку он снижает требования к ресурсам и обеспечивает большую гибкость при развертывании модели.
Размер параметров | Вход | Выход | Тюнингованные версии | Предполагаемые платформы |
---|---|---|---|---|
2Б | Текст | Текст |
| Мобильные устройства и ноутбуки |
7Б | Текст | Текст |
| Настольные компьютеры и небольшие серверы |
Используя многоподдержку Keras 3.0, вы можете запускать эти модели на TensorFlow, JAX и PyTorch или даже использовать собственные реализации JAX (на основе платформы FLAX) и PyTorch.
Вы можете скачать модели Gemma с сайта Kaggle Models .
Тюнингованные модели
Вы можете изменить поведение моделей Gemma с помощью дополнительного обучения, чтобы модель лучше справлялась с конкретными задачами. Этот процесс называется настройкой модели, и хотя этот метод улучшает способность модели выполнять целевые задачи, он также может привести к ухудшению качества выполнения других задач. По этой причине модели Gemma доступны как в версиях с настроенными инструкциями, так и в предварительно обученных версиях:
- Предварительное обучение . Эти версии модели не обучены каким-либо конкретным задачам или инструкциям, выходящим за рамки основного набора обучающих данных Gemma. Не следует развертывать эти модели без выполнения некоторой настройки.
- Настроенные инструкции . Эти версии модели обучены взаимодействию на человеческом языке и могут реагировать на диалоговый ввод, подобно чат-боту.
Начать
Ознакомьтесь с этими руководствами, чтобы начать создавать решения с помощью Gemma:
- Генерация текста с помощью Gemma . Создайте базовый пример генерации текста с помощью модели.
- Настройте Gemma с помощью настройки LoRA . Выполните точную настройку LoRA на модели Gemma 2B.
- Настройте модель Gemma с помощью распределенного обучения . Используйте Keras с серверной частью JAX для точной настройки модели Gemma 7B с помощью LoRA и параллелизма моделей.
- Gemma в PyTorch . Создавайте текст с помощью Gemma с помощью PyTorch.
- Развертывание Gemma в производстве . Используйте ИИ Vertex для развертывания Gemma в производстве.