Anleitung zur Optimierung

In dieser Anleitung erfahren Sie, wie Sie mit dem Gemini API-Abstimmungsdienst beginnen, entweder mit dem Python SDK oder der REST API mit curl. In den Beispielen wird gezeigt, wie Sie das Textmodell hinter dem Textgenerierungsservice der Gemini API optimieren.

Auf ai.google.dev ansehen Colab-Notebook testen Notebook auf GitHub ansehen

Beschränkungen

Bevor Sie ein Modell optimieren, sollten Sie sich der folgenden Einschränkungen bewusst sein:

Datasets für die Feinabstimmung

Für die Feinabstimmung von Datasets für Gemini 1.5 Flash gelten die folgenden Einschränkungen:

  • Die maximale Eingabegröße pro Beispiel beträgt 40.000 Zeichen.
  • Die maximale Ausgabegröße pro Beispiel beträgt 5.000 Zeichen.
  • Es werden nur Beispiele für Eingabe/Ausgabe-Paare unterstützt. Mehrere Unterhaltungen im Chatstil werden nicht unterstützt.

Abgestimmte Modelle

Für optimierte Modelle gelten die folgenden Einschränkungen:

  • Das Eingabelimit eines optimierten Gemini 1.5-Flash-Modells beträgt 40.000 Zeichen.
  • Der JSON-Modus wird für optimierte Modelle nicht unterstützt.
  • Es wird nur die Texteingabe unterstützt.

Bevor Sie beginnen: Projekt und API-Schlüssel einrichten

Bevor Sie die Gemini API aufrufen können, müssen Sie Ihr Projekt einrichten und Ihren API-Schlüssel konfigurieren.

Abgestimmte Modelle auflisten

Sie können Ihre vorhandenen optimierten Modelle mit der Methode tunedModels.list prüfen.

from google import genai
client = genai.Client() # Get the key from the GOOGLE_API_KEY env variable

for model_info in client.models.list():
    print(model_info.name)

Abgestimmtes Modell erstellen

Wenn Sie ein optimiertes Modell erstellen möchten, müssen Sie den Datensatz in der Methode tunedModels.create an das Modell übergeben.

In diesem Beispiel optimieren Sie ein Modell, um die nächste Zahl in der Sequenz zu generieren. Wenn die Eingabe beispielsweise 1 ist, sollte das Modell 2 ausgeben. Wenn die Eingabe one hundred ist, sollte die Ausgabe one hundred one lauten.

# create tuning model
training_dataset =  [
    ["1", "2"],
    ["3", "4"],
    ["-3", "-2"],
    ["twenty two", "twenty three"],
    ["two hundred", "two hundred one"],
    ["ninety nine", "one hundred"],
    ["8", "9"],
    ["-98", "-97"],
    ["1,000", "1,001"],
    ["10,100,000", "10,100,001"],
    ["thirteen", "fourteen"],
    ["eighty", "eighty one"],
    ["one", "two"],
    ["three", "four"],
    ["seven", "eight"],
]
training_dataset=types.TuningDataset(
        examples=[
            types.TuningExample(
                text_input=i,
                output=o,
            )
            for i,o in training_dataset
        ],
    )
tuning_job = client.tunings.tune(
    base_model='models/gemini-1.0-pro-001',
    training_dataset=training_dataset,
    config=types.CreateTuningJobConfig(
        epoch_count= 5,
        batch_size=4,
        learning_rate=0.001,
        tuned_model_display_name="test tuned model"
    )
)

# generate content with the tuned model
response = client.models.generate_content(
    model=tuning_job.tuned_model.model,
    contents='III',
)

print(response.text)

Die optimalen Werte für die Anzahl der Epochen, die Batchgröße und die Lernrate hängen von Ihrem Datensatz und anderen Einschränkungen Ihres Anwendungsfalls ab. Weitere Informationen zu diesen Werten finden Sie unter Erweiterte Abstimmungseinstellungen und Hyperparameter.

Modell testen

Sie können die Methode tunedModels.generateContent verwenden und den Namen des optimierten Modells angeben, um seine Leistung zu testen.

response = client.models.generate_content(
    model=tuning_job.tuned_model.model,
    contents='III'
)

Nicht implementiert

Einige Funktionen (Fortschrittsberichte, Aktualisieren der Beschreibung und Löschen optimierter Modelle) wurden im neuen SDK noch nicht implementiert.