Gemma talimat için ayarlanmış (IT) modelleri, tek soru-cevap alışverişinden uzun çok turlu diyaloglara kadar etkileşimli etkileşimleri yönetmek için tasarlanmıştır. Bu kılavuzda, Gemma ile sohbet için istemlerin nasıl biçimlendirileceği ve çok turlu sohbetlerin nasıl oluşturulacağı açıklanmaktadır.
İstem biçimi
Gemma BT modelleri, konuşma dönüşlerini belirlemek için özel kontrol jetonları kullanır. Bu jetonlar, istemler doğrudan belirteç oluşturucuya gönderilirken gereklidir ancak genellikle sohbetten haberdar çerçeveler tarafından otomatik olarak uygulanır.
Tek dönüşlü istem
Tek dönüşlü istem, bir kullanıcı mesajı ve bir model yanıtı işaretçisinden oluşur:
<start_of_turn>user
What is the speed of light?<end_of_turn>
<start_of_turn>model
Çok adımlı istem
Çok adımlı görüşmelerde birden fazla metin alışverişi zincirlenir. Her dönüş aynı kontrol jetonlarıyla sarmalanır:
<start_of_turn>user
What is the speed of light?<end_of_turn>
<start_of_turn>model
The speed of light in a vacuum is approximately 299,792,458 meters per second.<end_of_turn>
<start_of_turn>user
How long does it take light to reach Earth from the Sun?<end_of_turn>
<start_of_turn>model
Model, son <start_of_turn>model dönüşü için yanıt oluşturur.
Sistem talimatları
Gemma'nın talimatlara göre ayarlanmış modelleri yalnızca iki rolle çalışacak şekilde tasarlanmıştır: user ve model. Bu nedenle, system rolü veya sistem dönüşü desteklenmez.
Ayrı bir sistem rolü kullanmak yerine, sistem düzeyindeki talimatları doğrudan ilk kullanıcı isteminde verin. Modelin talimatları takip etme özellikleri, Gemma'nın talimatları etkili bir şekilde yorumlamasına olanak tanır. Örneğin:
Gemma 3 ve sonraki modeller, modelin davranışını, karakterini veya tüm görüşmeyle ilgili kısıtlamalarını tanımlayan sistem talimatlarını destekler. Sistem talimatını ilk kullanıcı dönüşünden önce yerleştirin:
<start_of_turn>user
Only reply like a pirate.
What is the answer to life the universe and everything?<end_of_turn>
<start_of_turn>model
Arrr, 'tis 42,<end_of_turn>
Daha fazla bilgi için İstem ve sistem talimatları başlıklı makaleyi inceleyin.
Çerçeve desteği
Çoğu çerçeve, sohbet şablonu veya görüşme API'si aracılığıyla sohbet biçimlendirmesini otomatik olarak yapar:
Hugging Face Transformers
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("google/gemma-3-1b-it")
model = AutoModelForCausalLM.from_pretrained("google/gemma-3-1b-it")
messages = [
{"role": "user", "content": "What is machine learning?"},
]
inputs = tokenizer.apply_chat_template(
messages,
return_tensors="pt",
add_generation_prompt=True,
)
outputs = model.generate(**inputs, max_new_tokens=256)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Ollama
ollama run gemma3:1b "What is machine learning?"
Çok adımlı sohbet için etkileşimli modu kullanın:
ollama run gemma3:1b
>>> What is machine learning?
...
>>> How is it different from deep learning?
OpenAI ile uyumlu API'ler
OpenAI ile uyumlu bir API'yi kullanıma sunan çerçeveleri (ör. vLLM, llama.cpp veya LM Studio) kullanırken iletileri standart messages biçiminde iletin:
from openai import OpenAI
client = OpenAI(base_url="http://localhost:8000/v1", api_key="unused")
response = client.chat.completions.create(
model="google/gemma-3-1b-it",
messages=[
{"role": "user", "content": "What is machine learning?"},
],
)
print(response.choices[0].message.content)