Die Unterstützung für das Feinabstimmen der Gemini API bietet einen Mechanismus zum Kuratieren der Ausgabe, wenn Sie ein kleines Dataset mit Ein-/Ausgabebeispielen haben. Weitere Informationen finden Sie im Leitfaden zum Optimieren von Modellen und in der Anleitung.
Methode: tunedModels.create
Erstellt ein abgestimmtes Modell. Prüfen Sie den Fortschritt der Zwischenabstimmung (falls vorhanden) über den google.longrunning.Operations
-Dienst.
Über den Operations-Dienst können Sie auf den Status und die Ergebnisse zugreifen. Beispiel: GET /v1/tunedModels/az2mb0bpw6i/operations/000-111-222
Endpunkt
posthttps: / /generativelanguage.googleapis.com /v1beta /tunedModels
Abfrageparameter
tunedModelId
string
Optional. Die eindeutige ID für das optimierte Modell, sofern angegeben. Dieser Wert darf maximal 40 Zeichen lang sein. Das erste Zeichen muss ein Buchstabe und das letzte ein Buchstabe oder eine Ziffer sein. Die ID muss mit dem regulären Ausdruck [a-z]([a-z0-9-]{0,38}[a-z0-9])?
übereinstimmen.
Anfragetext
Der Anfragetext enthält eine Instanz von TunedModel
.
displayName
string
Optional. Der Name, der für dieses Modell in Benutzeroberflächen angezeigt werden soll. Der Anzeigename darf einschließlich Leerzeichen maximal 40 Zeichen lang sein.
description
string
Optional. Eine kurze Beschreibung dieses Modells.
tuningTask
object (TuningTask
)
Erforderlich. Die Abstimmungsaufgabe, mit der das abgestimmte Modell erstellt wird.
readerProjectNumbers[]
string (int64 format)
Optional. Liste der Projektnummern, die Lesezugriff auf das abgestimmte Modell haben.
source_model
Union type
source_model
ist nur einer der folgenden Werte zulässig:tunedModelSource
object (TunedModelSource
)
Optional. Das abgestimmte Modell, das als Ausgangspunkt für das Training des neuen Modells verwendet werden soll.
baseModel
string
Nicht veränderbar. Der Name der Model
, die optimiert werden soll. Beispiel: models/gemini-1.5-flash-001
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Die Werte können bis zu [0.0,1.0]
betragen. Ein Wert, der näher an 1.0
liegt, führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0
liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.
Dieser Wert gibt an, dass das Standardmodell beim Erstellen des Modells verwendet werden soll.
topP
number
Optional. Für Nucleus-Sampling.
Beim Nucleus-Sampling wird die kleinste Menge von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP
beträgt.
Dieser Wert gibt an, dass das Standardmodell beim Erstellen des Modells verwendet werden soll.
topK
integer
Optional. Für die Top-K-Stichprobenerhebung.
Beim Top-K-Sampling wird die Menge der topK
wahrscheinlichsten Tokens berücksichtigt. Dieser Wert gibt den Standardwert an, der vom Backend verwendet werden soll, wenn der Aufruf an das Modell erfolgt.
Dieser Wert gibt an, dass das Standardmodell beim Erstellen des Modells verwendet werden soll.
Beispielanfrage
Python
Antworttext
Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von Operation
.
Methode: tunedModels.generateContent
Generiert eine Modellantwort auf Grundlage einer Eingabe GenerateContentRequest
. Ausführliche Informationen zur Verwendung finden Sie im Leitfaden zur Texterstellung. Die Eingabefunktionen unterscheiden sich je nach Modell, auch bei optimierten Modellen. Weitere Informationen finden Sie im Modellleitfaden und im Leitfaden zum Optimieren.
Endpunkt
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateContent
Pfadparameter
model
string
Erforderlich. Der Name des Model
, der zum Generieren der Vervollständigung verwendet werden soll.
Format: models/{model}
. Sie hat die Form tunedModels/{tunedmodel}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste mit Tools
, die Model
verwenden kann, um die nächste Antwort zu generieren.
Eine Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs der Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Anleitungen zu Funktionsaufrufen und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren unsicherer Inhalte.
Dies wird auf der GenerateContentRequest.contents
und der GenerateContentResponse.candidates
erzwungen. Es sollte nicht mehr als eine Einstellung für jeden SafetyCategory
-Typ geben. Die API blockiert alle Inhalte und Antworten, die die durch diese Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jede SafetyCategory
, die in „safetySettings“ angegeben ist. Wenn für ein bestimmtes SafetyCategory
kein SafetySetting
in der Liste angegeben ist, verwendet die API die Standardeinstellung für die Sicherheit für diese Kategorie. Die Kategorien schädlicher Inhalte HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT und HARM_CATEGORY_CIVIC_INTEGRITY werden unterstützt. Hier finden Sie eine Anleitung mit detaillierten Informationen zu den verfügbaren Sicherheitseinstellungen. Sicherheitshinweise
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und ‑ausgabe.
cachedContent
string
Optional. Der Name des zwischengespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Java
Bild
Python
Node.js
Ok
Muschel
Java
Audio
Python
Node.js
Ok
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Ok
Muschel
Chat
Python
Node.js
Ok
Muschel
Java
Cache
Python
Node.js
Ok
Abgestimmtes Modell
Python
JSON-Modus
Python
Node.js
Ok
Muschel
Java
Codeausführung
Python
Ok
Java
Funktionsaufrufe
Python
Ok
Node.js
Muschel
Java
Generierungskonfiguration
Python
Node.js
Ok
Muschel
Java
Sicherheitseinstellungen
Python
Node.js
Ok
Muschel
Java
Systemanweisung
Python
Node.js
Ok
Muschel
Java
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateContentResponse
.
Methode: tunedModels.streamGenerateContent
Generiert eine gestreamte Antwort vom Modell für eine Eingabe GenerateContentRequest
.
Endpunkt
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:streamGenerateContent
Pfadparameter
model
string
Erforderlich. Der Name des Model
, der zum Generieren der Vervollständigung verwendet werden soll.
Format: models/{model}
. Sie hat die Form tunedModels/{tunedmodel}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste mit Tools
, die Model
verwenden kann, um die nächste Antwort zu generieren.
Eine Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs der Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Anleitungen zu Funktionsaufrufen und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren unsicherer Inhalte.
Dies wird auf der GenerateContentRequest.contents
und der GenerateContentResponse.candidates
erzwungen. Es sollte nicht mehr als eine Einstellung für jeden SafetyCategory
-Typ geben. Die API blockiert alle Inhalte und Antworten, die die durch diese Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jede SafetyCategory
, die in „safetySettings“ angegeben ist. Wenn für ein bestimmtes SafetyCategory
kein SafetySetting
in der Liste angegeben ist, verwendet die API die Standardeinstellung für die Sicherheit für diese Kategorie. Die Kategorien schädlicher Inhalte HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT und HARM_CATEGORY_CIVIC_INTEGRITY werden unterstützt. Hier finden Sie eine Anleitung mit detaillierten Informationen zu den verfügbaren Sicherheitseinstellungen. Sicherheitshinweise
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und ‑ausgabe.
cachedContent
string
Optional. Der Name des zwischengespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Java
Bild
Python
Node.js
Ok
Muschel
Java
Audio
Python
Ok
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Ok
Muschel
Chat
Python
Node.js
Ok
Muschel
Java
Antworttext
Bei Erfolg enthält der Antworttext einen Stream von GenerateContentResponse
-Instanzen.
Methode: tunedModels.get
Ruft Informationen zu einem bestimmten TunedModel ab.
Endpunkt
gethttps: / /generativelanguage.googleapis.com /v1beta /{name=tunedModels /*}
Pfadparameter
name
string
Erforderlich. Der Ressourcenname des Modells.
Format: tunedModels/my-model-id
. Es hat die Form tunedModels/{tunedmodel}
.
Anfragetext
Der Anfragetext muss leer sein.
Beispielanfrage
Python
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von TunedModel
.
Methode: tunedModels.list
Hier werden erstellte optimierte Modelle aufgeführt.
Endpunkt
gethttps: / /generativelanguage.googleapis.com /v1beta /tunedModels
Abfrageparameter
pageSize
integer
Optional. Die maximale Anzahl von TunedModels
, die (pro Seite) zurückgegeben werden sollen. Der Dienst gibt möglicherweise weniger abgestimmte Modelle zurück.
Falls nicht angegeben, werden maximal 10 abgestimmte Modelle zurückgegeben. Diese Methode gibt maximal 1.000 Modelle pro Seite zurück, auch wenn Sie einen größeren Wert für „pageSize“ übergeben.
pageToken
string
Optional. Ein Seitentoken, das von einem vorherigen tunedModels.list
-Aufruf empfangen wurde.
Geben Sie das von einer Anfrage zurückgegebene pageToken
als Argument für die nächste Anfrage an, um die nächste Seite abzurufen.
Beim Paginieren müssen alle anderen für tunedModels.list
bereitgestellten Parameter mit dem Aufruf übereinstimmen, der das Seitentoken bereitgestellt hat.
filter
string
Optional. Ein Filter ist eine Volltextsuche in der Beschreibung und dem Anzeigenamen des optimierten Modells. Standardmäßig enthalten die Ergebnisse keine abgestimmten Modelle, die für alle freigegeben wurden.
Zusätzliche Operatoren: – owner:me – writers:me – readers:me – readers:everyone
Beispiele: „owner:me“ gibt alle abgestimmten Modelle zurück, für die der Aufrufer die Rolle „Inhaber“ hat. „readers:me“ gibt alle abgestimmten Modelle zurück, für die der Aufrufer die Rolle „Leser“ hat. „readers:everyone“ gibt alle abgestimmten Modelle zurück, die für alle freigegeben sind.
Anfragetext
Der Anfragetext muss leer sein.
Beispielanfrage
Python
Antworttext
Antwort von tunedModels.list
mit einer paginierten Liste von Modellen.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
tunedModels[]
object (TunedModel
)
Die zurückgegebenen Modelle.
nextPageToken
string
Ein Token, das als pageToken
gesendet werden kann, um die nächste Seite abzurufen.
Wenn dieses Feld weggelassen wird, gibt es keine weiteren Seiten.
JSON-Darstellung |
---|
{
"tunedModels": [
{
object ( |
Methode: tunedModels.patch
Aktualisiert ein abgestimmtes Modell.
Endpunkt
patchhttps: / /generativelanguage.googleapis.com /v1beta /{tunedModel.name=tunedModels /*}
>
>
PATCH https://generativelanguage.googleapis.com/v1beta/{tunedModel.name=tunedModels/*}
Pfadparameter
tunedModel.name
string
Nur Ausgabe. Der Name des abgestimmten Modells. Beim Erstellen wird ein eindeutiger Name generiert. Beispiel: tunedModels/az2mb0bpw6i
Wenn displayName beim Erstellen festgelegt wird, wird der ID-Teil des Namens durch Verketten der Wörter des displayName mit Bindestrichen und Hinzufügen eines zufälligen Teils zur Eindeutigkeit festgelegt.
Beispiel:
- displayName =
Sentence Translator
- name =
tunedModels/sentence-translator-u3b7m
. Das Format isttunedModels/{tunedmodel}
.
Abfrageparameter
updateMask
string (FieldMask
format)
Optional. Die Liste der zu aktualisierenden Felder.
Dies ist eine durch Kommas getrennte Liste vollständig qualifizierter Feldnamen. Beispiel: "user.displayName,photo"
.
Anfragetext
Der Anfragetext enthält eine Instanz von TunedModel
.
displayName
string
Optional. Der Name, der für dieses Modell in Benutzeroberflächen angezeigt werden soll. Der Anzeigename darf einschließlich Leerzeichen maximal 40 Zeichen lang sein.
description
string
Optional. Eine kurze Beschreibung dieses Modells.
tuningTask
object (TuningTask
)
Erforderlich. Die Abstimmungsaufgabe, mit der das abgestimmte Modell erstellt wird.
readerProjectNumbers[]
string (int64 format)
Optional. Liste der Projektnummern, die Lesezugriff auf das abgestimmte Modell haben.
source_model
Union type
source_model
ist nur einer der folgenden Werte zulässig:tunedModelSource
object (TunedModelSource
)
Optional. Das abgestimmte Modell, das als Ausgangspunkt für das Training des neuen Modells verwendet werden soll.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Die Werte können bis zu [0.0,1.0]
betragen. Ein Wert, der näher an 1.0
liegt, führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0
liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.
Dieser Wert gibt an, dass das Standardmodell beim Erstellen des Modells verwendet werden soll.
topP
number
Optional. Für Nucleus-Sampling.
Beim Nucleus-Sampling wird die kleinste Menge von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP
beträgt.
Dieser Wert gibt an, dass das Standardmodell beim Erstellen des Modells verwendet werden soll.
topK
integer
Optional. Für die Top-K-Stichprobenerhebung.
Beim Top-K-Sampling wird die Menge der topK
wahrscheinlichsten Tokens berücksichtigt. Dieser Wert gibt den Standardwert an, der vom Backend verwendet werden soll, wenn der Aufruf an das Modell erfolgt.
Dieser Wert gibt an, dass das Standardmodell beim Erstellen des Modells verwendet werden soll.
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von TunedModel
.
Methode: tunedModels.delete
Löscht ein abgestimmtes Modell.
Endpunkt
deletehttps: / /generativelanguage.googleapis.com /v1beta /{name=tunedModels /*}
Pfadparameter
name
string
Erforderlich. Der Ressourcenname des Modells. Format: tunedModels/my-model-id
. Es hat die Form tunedModels/{tunedmodel}
.
Anfragetext
Der Anfragetext muss leer sein.
Antworttext
Wenn der Vorgang erfolgreich ist, ist der Antworttext ein leeres JSON-Objekt.
REST-Ressource: tunedModels
- Ressource: TunedModel
- TunedModelSource
- Bundesland
- TuningTask
- TuningSnapshot
- Dataset
- TuningExamples
- TuningExample
- Hyperparameter
- Methoden
Ressource: TunedModel
Ein abgestimmtes Modell, das mit ModelService.CreateTunedModel erstellt wurde.
name
string
Nur Ausgabe. Der Name des abgestimmten Modells. Beim Erstellen wird ein eindeutiger Name generiert. Beispiel: tunedModels/az2mb0bpw6i
Wenn displayName beim Erstellen festgelegt wird, wird der ID-Teil des Namens durch Verketten der Wörter des displayName mit Bindestrichen und Hinzufügen eines zufälligen Teils zur Eindeutigkeit festgelegt.
Beispiel:
- displayName =
Sentence Translator
- name =
tunedModels/sentence-translator-u3b7m
displayName
string
Optional. Der Name, der für dieses Modell in Benutzeroberflächen angezeigt werden soll. Der Anzeigename darf einschließlich Leerzeichen maximal 40 Zeichen lang sein.
description
string
Optional. Eine kurze Beschreibung dieses Modells.
state
enum (State
)
Nur Ausgabe. Der Status des abgestimmten Modells.
createTime
string (Timestamp
format)
Nur Ausgabe. Der Zeitstempel für den Zeitpunkt, zu dem dieses Modell erstellt wurde.
Verwendet RFC 3339, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Nachkommastellen verwendet. Andere Offsets als „Z“ werden ebenfalls akzeptiert. Beispiele: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
oder "2014-10-02T15:01:23+05:30"
.
updateTime
string (Timestamp
format)
Nur Ausgabe. Der Zeitstempel, der angibt, wann dieses Modell aktualisiert wurde.
Verwendet RFC 3339, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Nachkommastellen verwendet. Andere Offsets als „Z“ werden ebenfalls akzeptiert. Beispiele: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
oder "2014-10-02T15:01:23+05:30"
.
tuningTask
object (TuningTask
)
Erforderlich. Die Abstimmungsaufgabe, mit der das abgestimmte Modell erstellt wird.
readerProjectNumbers[]
string (int64 format)
Optional. Liste der Projektnummern, die Lesezugriff auf das abgestimmte Modell haben.
source_model
Union type
source_model
ist nur einer der folgenden Werte zulässig:tunedModelSource
object (TunedModelSource
)
Optional. Das abgestimmte Modell, das als Ausgangspunkt für das Training des neuen Modells verwendet werden soll.
baseModel
string
Nicht veränderbar. Der Name der Model
, die optimiert werden soll. Beispiel: models/gemini-1.5-flash-001
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Die Werte können bis zu [0.0,1.0]
betragen. Ein Wert, der näher an 1.0
liegt, führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0
liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.
Dieser Wert gibt an, dass das Standardmodell beim Erstellen des Modells verwendet werden soll.
topP
number
Optional. Für Nucleus-Sampling.
Beim Nucleus-Sampling wird die kleinste Menge von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP
beträgt.
Dieser Wert gibt an, dass das Standardmodell beim Erstellen des Modells verwendet werden soll.
topK
integer
Optional. Für die Top-K-Stichprobenerhebung.
Beim Top-K-Sampling wird die Menge der topK
wahrscheinlichsten Tokens berücksichtigt. Dieser Wert gibt den Standardwert an, der vom Backend verwendet werden soll, wenn der Aufruf an das Modell erfolgt.
Dieser Wert gibt an, dass das Standardmodell beim Erstellen des Modells verwendet werden soll.
JSON-Darstellung |
---|
{ "name": string, "displayName": string, "description": string, "state": enum ( |
TunedModelSource
Abgestimmtes Modell als Quelle für das Training eines neuen Modells.
tunedModel
string
Nicht veränderbar. Der Name des TunedModel
, der als Ausgangspunkt für das Training des neuen Modells verwendet werden soll. Beispiel: tunedModels/my-tuned-model
baseModel
string
Nur Ausgabe. Der Name der Basis-Model
, aus der diese TunedModel
abgeleitet wurde. Beispiel: models/gemini-1.5-flash-001
JSON-Darstellung |
---|
{ "tunedModel": string, "baseModel": string } |
Status
Der Status des abgestimmten Modells.
Enums | |
---|---|
STATE_UNSPECIFIED |
Der Standardwert. Dieser Wert wird nicht verwendet. |
CREATING |
Das Modell wird erstellt. |
ACTIVE |
Das Modell kann jetzt verwendet werden. |
FAILED |
Das Modell konnte nicht erstellt werden. |
TuningTask
Abstimmungsaufgaben, mit denen abgestimmte Modelle erstellt werden.
startTime
string (Timestamp
format)
Nur Ausgabe. Der Zeitstempel für den Beginn der Abstimmung dieses Modells.
Verwendet RFC 3339, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Nachkommastellen verwendet. Andere Offsets als „Z“ werden ebenfalls akzeptiert. Beispiele: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
oder "2014-10-02T15:01:23+05:30"
.
completeTime
string (Timestamp
format)
Nur Ausgabe. Der Zeitstempel für den Zeitpunkt, zu dem die Abstimmung dieses Modells abgeschlossen wurde.
Verwendet RFC 3339, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Nachkommastellen verwendet. Andere Offsets als „Z“ werden ebenfalls akzeptiert. Beispiele: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
oder "2014-10-02T15:01:23+05:30"
.
snapshots[]
object (TuningSnapshot
)
Nur Ausgabe. Messwerte, die während der Optimierung erfasst werden.
trainingData
object (Dataset
)
Erforderlich. Nur Eingabe. Nicht veränderbar. Die Trainingsdaten für das Modell.
hyperparameters
object (Hyperparameters
)
Nicht veränderbar. Hyperparameter, die den Abstimmungsprozess steuern. Wenn keine Werte angegeben werden, werden Standardwerte verwendet.
JSON-Darstellung |
---|
{ "startTime": string, "completeTime": string, "snapshots": [ { object ( |
TuningSnapshot
Aufzeichnen für einen einzelnen Abstimmungsschritt
step
integer
Nur Ausgabe. Der Schritt zur Feinabstimmung.
epoch
integer
Nur Ausgabe. Die Epoche, zu der dieser Schritt gehörte.
meanLoss
number
Nur Ausgabe. Der durchschnittliche Verlust der Trainingsbeispiele für diesen Schritt.
computeTime
string (Timestamp
format)
Nur Ausgabe. Der Zeitstempel für den Zeitpunkt, zu dem dieser Messwert berechnet wurde.
Verwendet RFC 3339, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Nachkommastellen verwendet. Andere Offsets als „Z“ werden ebenfalls akzeptiert. Beispiele: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
oder "2014-10-02T15:01:23+05:30"
.
JSON-Darstellung |
---|
{ "step": integer, "epoch": integer, "meanLoss": number, "computeTime": string } |
Dataset
Dataset für Training oder Validierung.
dataset
Union type
dataset
ist nur einer der folgenden Werte zulässig:examples
object (TuningExamples
)
Optional. Inline-Beispiele mit einfachem Ein-/Ausgabetext.
JSON-Darstellung |
---|
{
// dataset
"examples": {
object ( |
TuningExamples
Eine Reihe von Beispielen für die Feinabstimmung. Kann Trainings- oder Validierungsdaten enthalten.
examples[]
object (TuningExample
)
Die Beispiele. Die Beispiel-Eingabe kann für Text oder Diskussionen sein, aber alle Beispiele in einem Set müssen vom selben Typ sein.
JSON-Darstellung |
---|
{
"examples": [
{
object ( |
TuningExample
Ein einzelnes Beispiel für die Optimierung.
output
string
Erforderlich. Die erwartete Modellausgabe.
model_input
Union type
model_input
ist nur einer der folgenden Werte zulässig:textInput
string
Optional. Eingabe für Textmodell.
JSON-Darstellung |
---|
{ "output": string, // model_input "textInput": string // Union type } |
Hyperparameter
Hyperparameter, die den Abstimmungsprozess steuern. Weitere Informationen finden Sie unter https://ai.google.dev/docs/model_tuning_guidance.
learning_rate_option
Union type
learning_rate_option
ist nur einer der folgenden Werte zulässig:learningRate
number
Optional. Nicht veränderbar. Der Hyperparameter für die Lernrate für die Abstimmung. Wenn nicht festgelegt, wird basierend auf der Anzahl der Trainingsbeispiele ein Standardwert von 0,001 oder 0,0002 berechnet.
learningRateMultiplier
number
Optional. Nicht veränderbar. Mit dem Lernraten-Multiplikator wird eine endgültige Lernrate auf Grundlage des Standardwerts (empfohlen) berechnet. Tatsächliche Lernrate := learningRateMultiplier * Standardlernrate Die Standardlernrate hängt vom Basismodell und der Dataset-Größe ab. Wenn nicht festgelegt, wird der Standardwert 1,0 verwendet.
epochCount
integer
Nicht veränderbar. Die Anzahl der Trainingsepochen. Eine Epoche ist ein Durchlauf durch die Trainingsdaten. Wenn nicht festgelegt, wird der Standardwert 5 verwendet.
batchSize
integer
Nicht veränderbar. Der Hyperparameter für die Batchgröße für die Abstimmung. Wenn nicht festgelegt, wird je nach Anzahl der Trainingsbeispiele ein Standardwert von 4 oder 16 verwendet.
JSON-Darstellung |
---|
{ // learning_rate_option "learningRate": number, "learningRateMultiplier": number // Union type "epochCount": integer, "batchSize": integer } |