In dieser Anleitung erfahren Sie, wie Sie mit dem Gemini API-Abstimmungsdienst beginnen, entweder mit dem Python SDK oder der REST API mit curl. In den Beispielen wird gezeigt, wie Sie das Textmodell hinter dem Textgenerierungsservice der Gemini API optimieren.
![]() |
![]() |
![]() |
Beschränkungen
Bevor Sie ein Modell optimieren, sollten Sie sich der folgenden Einschränkungen bewusst sein:
Datasets für die Feinabstimmung
Für die Feinabstimmung von Datasets für Gemini 1.5 Flash gelten die folgenden Einschränkungen:
- Die maximale Eingabegröße pro Beispiel beträgt 40.000 Zeichen.
- Die maximale Ausgabegröße pro Beispiel beträgt 5.000 Zeichen.
- Es werden nur Beispiele für Eingabe/Ausgabe-Paare unterstützt. Mehrere Unterhaltungen im Chatstil werden nicht unterstützt.
Abgestimmte Modelle
Für optimierte Modelle gelten die folgenden Einschränkungen:
- Das Eingabelimit eines optimierten Gemini 1.5-Flash-Modells beträgt 40.000 Zeichen.
- Der JSON-Modus wird für optimierte Modelle nicht unterstützt.
- Es wird nur die Texteingabe unterstützt.
Bevor Sie beginnen: Projekt und API-Schlüssel einrichten
Bevor Sie die Gemini API aufrufen können, müssen Sie Ihr Projekt einrichten und Ihren API-Schlüssel konfigurieren.
Abgestimmte Modelle auflisten
Sie können Ihre vorhandenen optimierten Modelle mit der Methode tunedModels.list
prüfen.
from google import genai
client = genai.Client() # Get the key from the GOOGLE_API_KEY env variable
for model_info in client.models.list():
print(model_info.name)
Abgestimmtes Modell erstellen
Wenn Sie ein optimiertes Modell erstellen möchten, müssen Sie den Datensatz in der Methode tunedModels.create
an das Modell übergeben.
In diesem Beispiel optimieren Sie ein Modell, um die nächste Zahl in der Sequenz zu generieren. Wenn die Eingabe beispielsweise 1
ist, sollte das Modell 2
ausgeben. Wenn die Eingabe one hundred
ist, sollte die Ausgabe one hundred one
lauten.
# create tuning model
training_dataset = [
["1", "2"],
["3", "4"],
["-3", "-2"],
["twenty two", "twenty three"],
["two hundred", "two hundred one"],
["ninety nine", "one hundred"],
["8", "9"],
["-98", "-97"],
["1,000", "1,001"],
["10,100,000", "10,100,001"],
["thirteen", "fourteen"],
["eighty", "eighty one"],
["one", "two"],
["three", "four"],
["seven", "eight"],
]
training_dataset=types.TuningDataset(
examples=[
types.TuningExample(
text_input=i,
output=o,
)
for i,o in training_dataset
],
)
tuning_job = client.tunings.tune(
base_model='models/gemini-1.0-pro-001',
training_dataset=training_dataset,
config=types.CreateTuningJobConfig(
epoch_count= 5,
batch_size=4,
learning_rate=0.001,
tuned_model_display_name="test tuned model"
)
)
# generate content with the tuned model
response = client.models.generate_content(
model=tuning_job.tuned_model.model,
contents='III',
)
print(response.text)
Die optimalen Werte für die Anzahl der Epochen, die Batchgröße und die Lernrate hängen von Ihrem Datensatz und anderen Einschränkungen Ihres Anwendungsfalls ab. Weitere Informationen zu diesen Werten finden Sie unter Erweiterte Abstimmungseinstellungen und Hyperparameter.
Modell testen
Sie können die Methode tunedModels.generateContent
verwenden und den Namen des optimierten Modells angeben, um seine Leistung zu testen.
response = client.models.generate_content(
model=tuning_job.tuned_model.model,
contents='III'
)
Nicht implementiert
Einige Funktionen (Fortschrittsberichte, Aktualisieren der Beschreibung und Löschen optimierter Modelle) wurden im neuen SDK noch nicht implementiert.