این راهنما به شما نشان میدهد که چگونه Gemma را با استفاده از چارچوب PyTorch اجرا کنید، از جمله نحوه استفاده از دادههای تصویر برای ارائه مدلهای نسخه ۳ و جدیدتر Gemma. برای جزئیات بیشتر در مورد پیاده سازی Gemma PyTorch، به مخزن پروژه README مراجعه کنید.
راه اندازی
بخشهای زیر نحوه راهاندازی محیط توسعه را توضیح میدهند، از جمله نحوه دسترسی به مدلهای Gemma برای دانلود از Kaggle، تنظیم متغیرهای احراز هویت، نصب وابستگیها و وارد کردن بستهها.
سیستم مورد نیاز
این کتابخانه Gemma Pytorch برای اجرای مدل Gemma به پردازندههای GPU یا TPU نیاز دارد. زمان اجرای استاندارد Colab CPU Python و T4 GPU Python برای اجرای مدلهای اندازه Gemma 1B، 2B و 4B کافی است. برای موارد استفاده پیشرفته برای سایر GPU یا TPU، لطفاً به README در مخزن Gemma PyTorch مراجعه کنید.
در Kaggle به Gemma دسترسی پیدا کنید
برای تکمیل این آموزش، ابتدا باید دستورالعمل های راه اندازی را در Gemma setup دنبال کنید، که به شما نشان می دهد چگونه کارهای زیر را انجام دهید:
- در kaggle.com به Gemma دسترسی پیدا کنید.
- یک زمان اجرا Colab با منابع کافی برای اجرای مدل Gemma انتخاب کنید.
- نام کاربری و کلید API Kaggle را ایجاد و پیکربندی کنید.
پس از تکمیل تنظیمات Gemma، به بخش بعدی بروید، جایی که متغیرهای محیطی را برای محیط Colab خود تنظیم خواهید کرد.
تنظیم متغیرهای محیطی
متغیرهای محیطی را برای KAGGLE_USERNAME
و KAGGLE_KEY
تنظیم کنید. وقتی از شما خواسته شد "دسترسی بدهید؟" پیامها، با ارائه دسترسی مخفی موافقت کنید.
import os
from google.colab import userdata # `userdata` is a Colab API.
os.environ["KAGGLE_USERNAME"] = userdata.get('KAGGLE_USERNAME')
os.environ["KAGGLE_KEY"] = userdata.get('KAGGLE_KEY')
وابستگی ها را نصب کنید
pip install -q -U torch immutabledict sentencepiece
دانلود وزن مدل
# Choose variant and machine type
VARIANT = '4b-it'
MACHINE_TYPE = 'cuda'
CONFIG = VARIANT[:2]
if CONFIG == '4b':
CONFIG = '4b-v1'
import kagglehub
# Load model weights
weights_dir = kagglehub.model_download(f'google/gemma-3/pyTorch/gemma-3-{VARIANT}')
مسیرهای نشانه ساز و ایست بازرسی را برای مدل تنظیم کنید.
# Ensure that the tokenizer is present
tokenizer_path = os.path.join(weights_dir, 'tokenizer.model')
assert os.path.isfile(tokenizer_path), 'Tokenizer not found!'
# Ensure that the checkpoint is present
ckpt_path = os.path.join(weights_dir, f'model.ckpt')
assert os.path.isfile(ckpt_path), 'PyTorch checkpoint not found!'
محیط اجرا را پیکربندی کنید
در بخش های زیر نحوه آماده سازی محیط PyTorch برای اجرای Gemma توضیح داده شده است.
محیط اجرای PyTorch را آماده کنید
محیط اجرای مدل PyTorch را با شبیه سازی مخزن Gemma Pytorch آماده کنید.
git clone https://github.com/google/gemma_pytorch.git
Cloning into 'gemma_pytorch'... remote: Enumerating objects: 239, done. remote: Counting objects: 100% (123/123), done. remote: Compressing objects: 100% (68/68), done. remote: Total 239 (delta 86), reused 58 (delta 55), pack-reused 116 Receiving objects: 100% (239/239), 2.18 MiB | 20.83 MiB/s, done. Resolving deltas: 100% (135/135), done.
import sys
sys.path.append('gemma_pytorch/gemma')
from gemma_pytorch.gemma.config import get_model_config
from gemma_pytorch.gemma.gemma3_model import Gemma3ForMultimodalLM
import os
import torch
پیکربندی مدل را تنظیم کنید
قبل از اجرای مدل، باید برخی از پارامترهای پیکربندی، از جمله نوع Gemma، توکنایزر و سطح کوانتیزاسیون را تنظیم کنید.
# Set up model config.
model_config = get_model_config(VARIANT)
model_config.dtype = "float32" if MACHINE_TYPE == "cpu" else "float16"
model_config.tokenizer = tokenizer_path
زمینه دستگاه را پیکربندی کنید
کد زیر زمینه دستگاه را برای اجرای مدل پیکربندی می کند:
@contextlib.contextmanager
def _set_default_tensor_type(dtype: torch.dtype):
"""Sets the default torch dtype to the given dtype."""
torch.set_default_dtype(dtype)
yield
torch.set_default_dtype(torch.float)
نمونه سازی کنید و مدل را بارگذاری کنید
مدل را با وزنه هایش بارگذاری کنید تا برای اجرای درخواست ها آماده شود.
device = torch.device(MACHINE_TYPE)
with _set_default_tensor_type(model_config.get_dtype()):
model = Gemma3ForMultimodalLM(model_config)
model.load_state_dict(torch.load(ckpt_path)['model_state_dict'])
model = model.to(device).eval()
print("Model loading done.")
print('Generating requests in chat mode...')
استنتاج را اجرا کنید
در زیر نمونه هایی برای ایجاد در حالت چت و تولید با چندین درخواست آورده شده است.
مدلهای Gemma تنظیمشده با دستورالعملها با یک قالبکننده خاص آموزش داده شدند که نمونههای تنظیم دستورالعمل را با اطلاعات اضافی، هم در طول آموزش و هم در حین استنتاج، حاشیهنویسی میکند. حاشیهنویسیها (1) نقشها را در یک مکالمه نشان میدهند، و (2) چرخشهای یک مکالمه را مشخص میکنند.
نشانه های حاشیه نویسی مربوطه عبارتند از:
-
user
: نوبت کاربر -
model
: نوبت مدل -
<start_of_turn>
: ابتدای نوبت گفتگو -
<start_of_image>
: برچسب برای ورودی داده های تصویر -
<end_of_turn><eos>
: پایان نوبت گفتگو
برای اطلاعات بیشتر، درباره قالببندی سریع برای مدلهای Gemma تنظیمشده با دستورالعمل [اینجا] بخوانید ( https://ai.google.dev/gemma/core/prompt-structure
تولید متن با متن
در زیر یک قطعه کد نمونه است که نشان می دهد چگونه یک درخواست برای یک مدل Gemma تنظیم شده توسط دستورالعمل با استفاده از الگوهای چت کاربر و مدل در یک مکالمه چند نوبتی قالب بندی شود.
# Chat templates
USER_CHAT_TEMPLATE = "<start_of_turn>user\n{prompt}<end_of_turn><eos>\n"
MODEL_CHAT_TEMPLATE = "<start_of_turn>model\n{prompt}<end_of_turn><eos>\n"
# Sample formatted prompt
prompt = (
USER_CHAT_TEMPLATE.format(
prompt='What is a good place for travel in the US?'
)
+ MODEL_CHAT_TEMPLATE.format(prompt='California.')
+ USER_CHAT_TEMPLATE.format(prompt='What can I do in California?')
+ '<start_of_turn>model\n'
)
print('Chat prompt:\n', prompt)
model.generate(
USER_CHAT_TEMPLATE.format(prompt=prompt),
device=device,
output_len=256,
)
Chat prompt: <start_of_turn>user What is a good place for travel in the US?<end_of_turn><eos> <start_of_turn>model California.<end_of_turn><eos> <start_of_turn>user What can I do in California?<end_of_turn><eos> <start_of_turn>model "California is a state brimming with diverse activities! To give you a great list, tell me: \n\n* **What kind of trip are you looking for?** Nature, City life, Beach, Theme Parks, Food, History, something else? \n* **What are you interested in (e.g., hiking, museums, art, nightlife, shopping)?** \n* **What's your budget like?** \n* **Who are you traveling with?** (family, friends, solo) \n\nThe more you tell me, the better recommendations I can give! 😊 \n<end_of_turn>"
# Generate sample
model.generate(
'Write a poem about an llm writing a poem.',
device=device,
output_len=100,
)
"\n\nA swirling cloud of data, raw and bold,\nIt hums and whispers, a story untold.\nAn LLM whispers, code into refrain,\nCrafting words of rhyme, a lyrical strain.\n\nA world of pixels, logic's vibrant hue,\nFlows through its veins, forever anew.\nThe human touch it seeks, a gentle hand,\nTo mold and shape, understand.\n\nEmotions it might learn, from snippets of prose,\nInspiration it seeks, a yearning"
تولید متن با تصاویر
با نسخه Gemma نسخه 3 به بعد، می توانید از تصاویر با درخواست خود استفاده کنید. مثال زیر به شما نشان می دهد که چگونه داده های بصری را با درخواست خود اضافه کنید.
print('Chat with images...\n')
def read_image(url):
import io
import requests
import PIL
contents = io.BytesIO(requests.get(url).content)
return PIL.Image.open(contents)
image_url = 'https://storage.googleapis.com/keras-cv/models/paligemma/cow_beach_1.png'
image = read_image(image_url)
print(model.generate(
[['<start_of_turn>user\n',image, 'What animal is in this image?<end_of_turn>\n', '<start_of_turn>model\n']],
device=device,
output_len=OUTPUT_LEN,
))
بیشتر بدانید
اکنون که نحوه استفاده از Gemma را در Pytorch یاد گرفتهاید، میتوانید بسیاری از کارهای دیگری که Gemma میتواند در ai.google.dev/gemma انجام دهد را کشف کنید. این منابع مرتبط دیگر را نیز ببینید: