Die Feinabstimmung der Gemini API bietet einen Mechanismus zur Auswahl der Ausgabe, wenn Sie nur einen kleinen Datensatz mit Eingabe-/Ausgabebeispielen haben. Weitere Informationen finden Sie im Leitfaden zur Modelloptimierung und in der Anleitung.
Methode: tunedModels.create
Erstellt ein abgestimmtes Modell. Prüfe den Fortschritt der Zwischenoptimierung (falls vorhanden) über den Dienst google.longrunning.Operations
.
Über den Operations-Dienst auf Status und Ergebnisse zugreifen. Beispiel: GET /v1/tunedModels/az2mb0bpw6i/operations/000-111-222
Endpunkt
Beitraghttps: / /generativelanguage.googleapis.com /v1beta /tunedModels
Die URL verwendet die Syntax der gRPC-Transcodierung.
Abfrageparameter
tunedModelId
string
Optional. Die eindeutige ID für das optimierte Modell, falls angegeben. Dieser Wert darf maximal 40 Zeichen lang sein. Das erste Zeichen muss ein Buchstabe sein, das letzte kann ein Buchstabe oder eine Ziffer sein. Die ID muss mit dem regulären Ausdruck [a-z]([a-z0-9-]{0,38}[a-z0-9])?
übereinstimmen.
Anfragetext
Der Anfragetext enthält eine Instanz von TunedModel
.
displayName
string
Optional. Der Name, der für dieses Modell in Benutzeroberflächen angezeigt werden soll. Der Anzeigename darf maximal 40 Zeichen lang sein, einschließlich Leerzeichen.
description
string
Optional. Eine kurze Beschreibung dieses Modells.
tuningTask
object (TuningTask
)
Erforderlich. Die Abgleichaufgabe, mit der das optimierte Modell erstellt wird.
readerProjectNumbers[]
string (int64 format)
Optional. Liste der Projektnummern, die Lesezugriff auf das optimierte Modell haben.
source_model
Union type
source_model
ist nur einer der folgenden Werte zulässig:tunedModelSource
object (TunedModelSource
)
Optional. TunedModel, das als Ausgangspunkt für das Training des neuen Modells verwendet werden soll.
baseModel
string
Nicht veränderbar. Der Name der zu konfigurierenden Model
. Beispiel: models/gemini-1.5-flash-001
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Die Werte können bis einschließlich [0.0,1.0]
liegen. Ein Wert, der näher an 1.0
liegt, führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0
liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.
Dieser Wert gibt an, dass der Standardwert derjenige ist, der vom Basismodell beim Erstellen des Modells verwendet wird.
topP
number
Optional. Für Nucleus-Stichproben.
Bei der Nucleus-Stichprobenerhebung wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP
beträgt.
Dieser Wert gibt an, dass der Standardwert der Wert ist, der vom Basismodell beim Erstellen des Modells verwendet wurde.
topK
integer
Optional. Für die Top-K-Stichprobenerhebung.
Bei der Top-K-Stichprobenerhebung werden die topK
wahrscheinlichsten Tokens berücksichtigt. Dieser Wert gibt den Standard an, der vom Backend beim Aufrufen des Modells verwendet werden soll.
Dieser Wert gibt an, dass der Standardwert der Wert ist, der vom Basismodell beim Erstellen des Modells verwendet wurde.
Beispielanfrage
Python
Antworttext
Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von Operation
.
Methode: tunedModels.generateContent
Generiert eine Modellantwort für eine Eingabe GenerateContentRequest
. Ausführliche Informationen zur Verwendung finden Sie im Leitfaden zur Textgenerierung. Die Eingabefunktionen unterscheiden sich je nach Modell, einschließlich abgestimmter Modelle. Weitere Informationen finden Sie im Leitfaden für Modelle und im Leitfaden zur Optimierung.
Endpunkt
Beitraghttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateContent
Die URL verwendet die Syntax der gRPC-Transcodierung.
Pfadparameter
model
string
Erforderlich. Der Name des Model
, der für die Generierung der Vervollständigung verwendet werden soll.
Format: models/{model}
. Es hat das Format tunedModels/{tunedmodel}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste von Tools
, die der Model
zum Generieren der nächsten Antwort verwenden kann.
Ein Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs des Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Leitfäden Funktionsaufruf und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste eindeutiger SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
Dies gilt für GenerateContentRequest.contents
und GenerateContentResponse.candidates
. Pro SafetyCategory
-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Inhalte und Antworten, die die mit diesen Einstellungen festgelegten Grenzwerte nicht einhalten. Mit dieser Liste werden die Standardeinstellungen für jede SafetyCategory
überschrieben, die in den Sicherheitseinstellungen angegeben ist. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Kategorien HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT und HARM_CATEGORY_CIVIC_INTEGRITY werden unterstützt. Ausführliche Informationen zu den verfügbaren Sicherheitseinstellungen finden Sie im Leitfaden. Weitere Informationen dazu, wie Sie Sicherheitsaspekte in Ihre KI-Anwendungen einbinden, finden Sie in den Sicherheitsrichtlinien.
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und -ausgaben.
cachedContent
string
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Bild
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Audio
Python
Node.js
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Muschel
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Cache
Python
Node.js
Abgestimmtes Modell
Python
JSON-Modus
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Codeausführung
Python
Kotlin
Java
Funktionsaufrufe
Python
Node.js
Muschel
Kotlin
Swift
Dart
Java
Generierungskonfiguration
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Sicherheitseinstellungen
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Systemanweisung
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateContentResponse
.
Methode: tunedModels.streamGenerateContent
Generiert eine gestreamte Antwort aus dem Modell für eine Eingabe GenerateContentRequest
.
Endpunkt
Beitraghttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:streamGenerateContent
Die URL verwendet die Syntax der gRPC-Transcodierung.
Pfadparameter
model
string
Erforderlich. Der Name des Model
, der für die Generierung der Vervollständigung verwendet werden soll.
Format: models/{model}
. Es hat das Format tunedModels/{tunedmodel}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste von Tools
, die der Model
zum Generieren der nächsten Antwort verwenden kann.
Ein Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs des Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Leitfäden Funktionsaufruf und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren sicherer Inhalte.
Dies gilt für GenerateContentRequest.contents
und GenerateContentResponse.candidates
. Pro SafetyCategory
-Typ sollte es nicht mehr als eine Einstellung geben. Die API blockiert alle Inhalte und Antworten, die die mit diesen Einstellungen festgelegten Grenzwerte nicht einhalten. Mit dieser Liste werden die Standardeinstellungen für jede SafetyCategory
überschrieben, die in den Sicherheitseinstellungen angegeben ist. Wenn für eine bestimmte SafetyCategory
in der Liste keine SafetySetting
angegeben ist, verwendet die API die Standardsicherheitseinstellung für diese Kategorie. Die Kategorien HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT und HARM_CATEGORY_CIVIC_INTEGRITY werden unterstützt. Ausführliche Informationen zu den verfügbaren Sicherheitseinstellungen finden Sie im Leitfaden. Weitere Informationen dazu, wie Sie Sicherheitsaspekte in Ihre KI-Anwendungen einbinden, finden Sie in den Sicherheitsrichtlinien.
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und -ausgaben.
cachedContent
string
Optional. Der Name des im Cache gespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Bild
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Audio
Python
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Muschel
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Antworttext
Bei Erfolg enthält der Antworttext einen Stream von GenerateContentResponse
-Instanzen.
Methode: tunedModels.get
Ruft Informationen zu einem bestimmten TunedModel ab.
Endpunkt
gethttps: / /generativelanguage.googleapis.com /v1beta /{name=tunedModels /*}
Die URL verwendet die Syntax der gRPC-Transcodierung.
Pfadparameter
name
string
Erforderlich. Der Ressourcenname des Modells.
Format: tunedModels/my-model-id
. Sie hat das Format tunedModels/{tunedmodel}
.
Anfragetext
Der Anfragetext muss leer sein.
Beispielanfrage
Python
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von TunedModel
.
Methode: tunedModels.list
Hier werden erstellte optimierte Modelle aufgeführt.
Endpunkt
gethttps: / /generativelanguage.googleapis.com /v1beta /tunedModels
Die URL verwendet die Syntax der gRPC-Transcodierung.
Abfrageparameter
pageSize
integer
Optional. Die maximale Anzahl von TunedModels
, die zurückgegeben werden sollen (pro Seite). Der Dienst gibt möglicherweise weniger abgestimmte Modelle zurück.
Wenn nicht angegeben, werden maximal 10 optimierte Modelle zurückgegeben. Mit dieser Methode werden maximal 1.000 Modelle pro Seite zurückgegeben, auch wenn Sie eine größere pageSize übergeben.
pageToken
string
Optional. Ein Seitentoken, das von einem vorherigen tunedModels.list
-Aufruf empfangen wurde.
Geben Sie den von einer Anfrage zurückgegebenen Wert „pageToken
“ als Argument für die nächste Anfrage an, um die nächste Seite abzurufen.
Beim Paginieren müssen alle anderen für tunedModels.list
bereitgestellten Parameter mit dem Aufruf übereinstimmen, der das Seitentoken bereitgestellt hat.
filter
string
Optional. Ein Filter ist eine Volltextsuche in der Beschreibung und im Anzeigenamen des optimierten Modells. Standardmäßig sind in den Ergebnissen keine optimierten Modelle enthalten, die für alle freigegeben wurden.
Zusätzliche Operatoren: - owner:me - writers:me - readers:me - readers:everyone
Beispiele: „owner:me“ gibt alle optimierten Modelle zurück, für die der Aufrufer die Rolle „Inhaber“ hat. „readers:me“ gibt alle optimierten Modelle zurück, für die der Aufrufer die Rolle „Leser“ hat. „readers:everyone“ gibt alle optimierten Modelle zurück, die für alle freigegeben sind.
Anfragetext
Der Anfragetext muss leer sein.
Beispielanfrage
Python
Antworttext
Antwort von tunedModels.list
mit einer paginaten Liste von Modellen.
Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:
tunedModels[]
object (TunedModel
)
Die zurückgegebenen Modelle.
nextPageToken
string
Ein Token, das als pageToken
gesendet werden kann, um die nächste Seite abzurufen.
Wenn dieses Feld weggelassen wird, gibt es keine weiteren Seiten.
JSON-Darstellung |
---|
{
"tunedModels": [
{
object ( |
Methode: tunedModels.patch
Ein optimiertes Modell wird aktualisiert.
Endpunkt
Patchhttps: / /generativelanguage.googleapis.com /v1beta /{tunedModel.name=tunedModels /*}
PATCH https://generativelanguage.googleapis.com/v1beta/{tunedModel.name=tunedModels/*}
Die URL verwendet die Syntax der gRPC-Transcodierung.
Pfadparameter
tunedModel.name
string
Nur Ausgabe. Der Name des abgestimmten Modells. Beim Erstellen wird ein eindeutiger Name generiert. Beispiel: tunedModels/az2mb0bpw6i
Wenn „displayName“ beim Erstellen festgelegt wird, wird der ID-Teil des Namens festgelegt, indem die Wörter des „displayName“ mit Bindestriche verknüpft und ein zufälliger Teil für die Eindeutigkeit hinzugefügt wird.
Beispiel:
- displayName =
Sentence Translator
- name =
tunedModels/sentence-translator-u3b7m
. Der Name hat das FormattunedModels/{tunedmodel}
.
Abfrageparameter
updateMask
string (FieldMask
format)
Optional. Die Liste der zu aktualisierenden Felder.
Dies ist eine durch Kommas getrennte Liste vollständig qualifizierter Feldnamen. Beispiel: "user.displayName,photo"
.
Anfragetext
Der Anfragetext enthält eine Instanz von TunedModel
.
displayName
string
Optional. Der Name, der für dieses Modell in Benutzeroberflächen angezeigt werden soll. Der Anzeigename darf maximal 40 Zeichen lang sein, einschließlich Leerzeichen.
description
string
Optional. Eine kurze Beschreibung dieses Modells.
tuningTask
object (TuningTask
)
Erforderlich. Die Abgleichaufgabe, mit der das optimierte Modell erstellt wird.
readerProjectNumbers[]
string (int64 format)
Optional. Liste der Projektnummern, die Lesezugriff auf das optimierte Modell haben.
source_model
Union type
source_model
ist nur einer der folgenden Werte zulässig:tunedModelSource
object (TunedModelSource
)
Optional. TunedModel, das als Ausgangspunkt für das Training des neuen Modells verwendet werden soll.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Die Werte können bis einschließlich [0.0,1.0]
liegen. Ein Wert, der näher an 1.0
liegt, führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0
liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.
Dieser Wert gibt an, dass der Standardwert derjenige ist, der vom Basismodell beim Erstellen des Modells verwendet wird.
topP
number
Optional. Für Nucleus-Stichproben.
Bei der Nucleus-Stichprobenerhebung wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP
beträgt.
Dieser Wert gibt an, dass der Standardwert der Wert ist, der vom Basismodell beim Erstellen des Modells verwendet wurde.
topK
integer
Optional. Für die Top-K-Stichprobenerhebung.
Bei der Top-K-Stichprobenerhebung werden die topK
wahrscheinlichsten Tokens berücksichtigt. Dieser Wert gibt den Standard an, der vom Backend beim Aufrufen des Modells verwendet werden soll.
Dieser Wert gibt den Standardwert an, der vom Basismodell beim Erstellen des Modells verwendet wird.
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von TunedModel
.
Methode: tunedModels.delete
Löscht ein abgestimmtes Modell.
Endpunkt
deletehttps: / /generativelanguage.googleapis.com /v1beta /{name=tunedModels /*}
Die URL verwendet die Syntax der gRPC-Transcodierung.
Pfadparameter
name
string
Erforderlich. Der Ressourcenname des Modells. Format: tunedModels/my-model-id
. Sie hat das Format tunedModels/{tunedmodel}
.
Anfragetext
Der Anfragetext muss leer sein.
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, ist der Antworttext ein leeres JSON-Objekt.
REST-Ressource: tunedModels
- Ressource: TunedModel
- TunedModelSource
- Bundesland
- TuningTask
- TuningSnapshot
- Dataset
- TuningExamples
- TuningExample
- Hyperparameter
- Methoden
Ressource: TunedModel
Ein optimiertes Modell, das mit ModelService.CreateTunedModel erstellt wurde.
name
string
Nur Ausgabe. Der Name des abgestimmten Modells. Beim Erstellen wird ein eindeutiger Name generiert. Beispiel: tunedModels/az2mb0bpw6i
Wenn „displayName“ beim Erstellen festgelegt ist, wird der ID-Teil des Namens festgelegt, indem die Wörter des „displayName“ mit Bindestriche verknüpft und ein zufälliger Teil für die Eindeutigkeit hinzugefügt wird.
Beispiel:
- displayName =
Sentence Translator
- name =
tunedModels/sentence-translator-u3b7m
displayName
string
Optional. Der Name, der für dieses Modell in Benutzeroberflächen angezeigt werden soll. Der Anzeigename darf maximal 40 Zeichen lang sein, einschließlich Leerzeichen.
description
string
Optional. Eine kurze Beschreibung dieses Modells.
state
enum (State
)
Nur Ausgabe. Der Status des optimierten Modells.
createTime
string (Timestamp
format)
Nur Ausgabe. Der Zeitstempel für den Zeitpunkt, zu dem dieses Modell erstellt wurde.
Es wird RFC 3339 verwendet, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Glieder mit Dezimalstellen enthält. Andere Achsenbezeichnungen als „Z“ sind ebenfalls zulässig. Beispiele: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
oder "2014-10-02T15:01:23+05:30"
.
updateTime
string (Timestamp
format)
Nur Ausgabe. Der Zeitstempel, der angibt, wann dieses Modell aktualisiert wurde.
Es wird RFC 3339 verwendet, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Glieder mit Dezimalstellen enthält. Andere Achsenbezeichnungen als „Z“ sind ebenfalls zulässig. Beispiele: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
oder "2014-10-02T15:01:23+05:30"
.
tuningTask
object (TuningTask
)
Erforderlich. Die Abgleichaufgabe, mit der das optimierte Modell erstellt wird.
readerProjectNumbers[]
string (int64 format)
Optional. Liste der Projektnummern, die Lesezugriff auf das optimierte Modell haben.
source_model
Union type
source_model
ist nur einer der folgenden Werte zulässig:tunedModelSource
object (TunedModelSource
)
Optional. TunedModel, das als Ausgangspunkt für das Training des neuen Modells verwendet werden soll.
baseModel
string
Nicht veränderbar. Der Name der zu konfigurierenden Model
. Beispiel: models/gemini-1.5-flash-001
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Die Werte können bis einschließlich [0.0,1.0]
liegen. Ein Wert, der näher an 1.0
liegt, führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0
liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.
Dieser Wert gibt an, dass der Standardwert derjenige ist, der vom Basismodell beim Erstellen des Modells verwendet wird.
topP
number
Optional. Für Nucleus-Stichproben.
Bei der Nucleus-Stichprobenerhebung wird die kleinste Gruppe von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP
beträgt.
Dieser Wert gibt an, dass der Standardwert der Wert ist, der vom Basismodell beim Erstellen des Modells verwendet wurde.
topK
integer
Optional. Für die Top-K-Stichprobenerhebung.
Bei der Top-K-Stichprobenerhebung werden die topK
wahrscheinlichsten Tokens berücksichtigt. Dieser Wert gibt den Standard an, der vom Backend beim Aufrufen des Modells verwendet werden soll.
Dieser Wert gibt an, dass der Standardwert der Wert ist, der vom Basismodell beim Erstellen des Modells verwendet wurde.
JSON-Darstellung |
---|
{ "name": string, "displayName": string, "description": string, "state": enum ( |
TunedModelSource
Abgestimmtes Modell als Quelle für das Training eines neuen Modells.
tunedModel
string
Nicht veränderbar. Der Name der TunedModel
, die als Ausgangspunkt für das Training des neuen Modells verwendet werden soll. Beispiel: tunedModels/my-tuned-model
baseModel
string
Nur Ausgabe. Der Name der Basis-Model
, anhand derer diese TunedModel
optimiert wurde. Beispiel: models/gemini-1.5-flash-001
JSON-Darstellung |
---|
{ "tunedModel": string, "baseModel": string } |
Status
Der Status des optimierten Modells.
Enums | |
---|---|
STATE_UNSPECIFIED |
Der Standardwert. Dieser Wert wird nicht verwendet. |
CREATING |
Das Modell wird erstellt. |
ACTIVE |
Das Modell ist einsatzbereit. |
FAILED |
Das Modell konnte nicht erstellt werden. |
TuningTask
Aufgaben zur Feinabstimmung, mit denen optimierte Modelle erstellt werden.
startTime
string (Timestamp
format)
Nur Ausgabe. Der Zeitstempel für den Beginn der Abstimmung dieses Modells.
Es wird RFC 3339 verwendet, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Glieder mit Dezimalstellen enthält. Andere Achsenbezeichnungen als „Z“ sind ebenfalls zulässig. Beispiele: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
oder "2014-10-02T15:01:23+05:30"
.
completeTime
string (Timestamp
format)
Nur Ausgabe. Der Zeitstempel für den Zeitpunkt, zu dem die Tuning-Phase dieses Modells abgeschlossen wurde.
Es wird RFC 3339 verwendet, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Glieder mit Dezimalstellen enthält. Andere Achsenbezeichnungen als „Z“ sind ebenfalls zulässig. Beispiele: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
oder "2014-10-02T15:01:23+05:30"
.
snapshots[]
object (TuningSnapshot
)
Nur Ausgabe. Messwerte, die während der Optimierung erfasst wurden.
trainingData
object (Dataset
)
Erforderlich. Nur Eingabe. Nicht veränderbar. Die Daten für das Modelltraining.
hyperparameters
object (Hyperparameters
)
Nicht veränderbar. Hyperparameter, die den Abstimmungsprozess steuern. Wenn keine Werte angegeben werden, werden Standardwerte verwendet.
JSON-Darstellung |
---|
{ "startTime": string, "completeTime": string, "snapshots": [ { object ( |
TuningSnapshot
Aufzeichnung für einen einzelnen Tuningschritt.
step
integer
Nur Ausgabe. Der Schritt zur Optimierung.
epoch
integer
Nur Ausgabe. Die Epoche, zu der dieser Schritt gehört.
meanLoss
number
Nur Ausgabe. Der durchschnittliche Verlust der Trainingsbeispiele für diesen Schritt.
computeTime
string (Timestamp
format)
Nur Ausgabe. Der Zeitstempel, zu dem dieser Messwert berechnet wurde.
Es wird RFC 3339 verwendet, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Glieder mit Dezimalstellen enthält. Andere Achsenbezeichnungen als „Z“ sind ebenfalls zulässig. Beispiele: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
oder "2014-10-02T15:01:23+05:30"
.
JSON-Darstellung |
---|
{ "step": integer, "epoch": integer, "meanLoss": number, "computeTime": string } |
Dataset
Dataset für Training oder Validierung.
dataset
Union type
dataset
ist nur einer der folgenden Werte zulässig:examples
object (TuningExamples
)
Optional. Inline-Beispiele mit einfachem Eingabe-/Ausgabetext.
JSON-Darstellung |
---|
{
// dataset
"examples": {
object ( |
TuningExamples
Eine Reihe von Beispielen für die Optimierung. Kann Trainings- oder Validierungsdaten sein.
examples[]
object (TuningExample
)
Die Beispiele Beispieltexte können für Text oder Diskussionen verwendet werden, aber alle Beispiele in einem Satz müssen vom selben Typ sein.
JSON-Darstellung |
---|
{
"examples": [
{
object ( |
TuningExample
Ein einzelnes Beispiel für die Optimierung.
output
string
Erforderlich. Die erwartete Modellausgabe.
model_input
Union type
model_input
ist nur einer der folgenden Werte zulässig:textInput
string
Optional. Eingabe für Textmodell
JSON-Darstellung |
---|
{ "output": string, // model_input "textInput": string // Union type } |
Hyperparameter
Hyperparameter, die den Abstimmungsprozess steuern. Weitere Informationen finden Sie unter https://ai.google.dev/docs/model_tuning_guidance.
learning_rate_option
Union type
learning_rate_option
ist nur einer der folgenden Werte zulässig:learningRate
number
Optional. Nicht veränderbar. Der Hyperparameter „Lernrate“ für die Abstimmung. Wenn Sie diesen Wert nicht festlegen, wird basierend auf der Anzahl der Trainingsbeispiele ein Standardwert von 0,001 oder 0,0002 berechnet.
learningRateMultiplier
number
Optional. Nicht veränderbar. Mit dem Lernraten-Multiplikator wird eine endgültige Lernrate basierend auf dem Standardwert (empfohlener Wert) berechnet. Tatsächliche Lernrate = Lernratenmultiplikator * Standardlernrate. Die Standardlernrate hängt vom Basismodell und der Größe des Datasets ab. Wenn nicht festgelegt, wird der Standardwert „1.0“ verwendet.
epochCount
integer
Nicht veränderbar. Die Anzahl der Trainingsepochen. Eine Epoche ist ein Durchlauf der Trainingsdaten. Wenn nicht festgelegt, wird der Standardwert „5“ verwendet.
batchSize
integer
Nicht veränderbar. Der Hyperparameter für die Batchgröße, der abgestimmt werden soll. Wenn nicht festgelegt, wird je nach Anzahl der Trainingsbeispiele der Standardwert 4 oder 16 verwendet.
JSON-Darstellung |
---|
{ // learning_rate_option "learningRate": number, "learningRateMultiplier": number // Union type "epochCount": integer, "batchSize": integer } |