Obsługa dokładnego dostosowania interfejsu Gemini API zapewnia mechanizm do selekcjonowania danych wyjściowych, gdy masz mały zbiór danych z przykładami danych wejściowych i wyjściowych. Więcej informacji znajdziesz w przewodniku po dostosowywaniu modelu i samouczku.
Metoda: tunedModels.create
Tworzy model dostrojony. Sprawdź postępy pośredniego dostrajania (jeśli takie występują) za pomocą usługi google.longrunning.Operations
.
Sprawdzać stan i wyniki za pomocą usługi operacyjnej. Przykład: GET /v1/tunedModels/az2mb0bpw6i/operations/000-111-222
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /tunedModels
Adres URL używa składni transkodowania gRPC.
Parametry zapytania
tunedModelId
string
Opcjonalnie: Unikalny identyfikator dostrojonej wersji modelu, jeśli została określona. Ta wartość może zawierać maksymalnie 40 znaków. Pierwszy znak musi być literą, a ostatni może być literą lub cyfrą. Identyfikator musi być zgodny z wyrażeniem regularnym: [a-z]([a-z0-9-]{0,38}[a-z0-9])?
.
Treść żądania
Treść żądania zawiera wystąpienie elementu TunedModel
.
displayName
string
Opcjonalnie: Nazwa wyświetlana w interfejsach użytkownika. Wyświetlana nazwa może mieć maksymalnie 40 znaków (wliczając spacje).
description
string
Opcjonalnie: Krótki opis tego modelu.
tuningTask
object (TuningTask
)
Wymagany. Zadanie dostrajania, które tworzy model dostrojony.
readerProjectNumbers[]
string (int64 format)
Opcjonalnie: Lista numerów projektów, które mają dostęp do odczytu dostrojonego modelu.
source_model
Union type
source_model
może być tylko jednym z tych elementów:tunedModelSource
object (TunedModelSource
)
Opcjonalnie: TunedModel, który ma posłużyć jako punkt wyjścia do trenowania nowego modelu.
baseModel
string
Niezmienna. Nazwa Model
do dostosowania. Przykład: models/gemini-1.5-flash-001
temperature
number
Opcjonalnie: Określa losowość danych wyjściowych.
Wartości mogą mieścić się w zakresie [0.0,1.0]
(obustronnie domkniętym). Wartość zbliżona do 1.0
spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość zbliżona do 0.0
spowoduje, że model będzie generował mniej zaskakujących odpowiedzi.
Ta wartość określa domyślny model podstawowy używany podczas tworzenia modelu.
topP
number
Opcjonalnie: Próbkowanie Nucleus.
Próbkowanie jądrowe uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP
.
Ta wartość określa domyślną wartość, która jest używana przez model podstawowy podczas tworzenia modelu.
topK
integer
Opcjonalnie: W przypadku próbkowania Top-K.
Próbkowanie Top-K uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu.
Ta wartość określa domyślny model podstawowy używany podczas tworzenia modelu.
Przykładowe żądanie
Python
Treść odpowiedzi
Jeśli operacja się powiedzie, treść odpowiedzi będzie zawierała nowo utworzoną instancję Operation
.
Metoda: tunedModels.generateContent
generuje odpowiedź modelu na podstawie wejścia GenerateContentRequest
. Szczegółowe informacje o korzystaniu z tej funkcji znajdziesz w przewodniku po generowaniu tekstu. Możliwości wejściowe różnią się w zależności od modelu, w tym w przypadku modeli z dodatkowymi funkcjami. Więcej informacji znajdziesz w przewodniku po modelach i przewodniku po dostrajaniu.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateContent
Adres URL używa składni transkodowania gRPC.
Parametry ścieżki
model
string
Wymagany. Nazwa Model
, która ma być użyta do wygenerowania zakończenia.
Format: models/{model}
. Ma ona postać tunedModels/{tunedmodel}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
tools[]
object (Tool
)
Opcjonalnie: Lista Tools
, których Model
może użyć do wygenerowania następnej odpowiedzi.
Tool
to fragment kodu, który umożliwia systemowi interakcję z systemami zewnętrznymi w celu wykonania działania lub zestawu działań poza wiedzą i zakresem Model
. Obsługiwane wartości Tool
to Function
i codeExecution
. Więcej informacji znajdziesz w przewodniku po wywoływaniu funkcji i przewodniku po wykonywaniu kodu.
toolConfig
object (ToolConfig
)
Opcjonalnie: Konfiguracja narzędzia dla dowolnego Tool
określonego w żądaniu. Przykład użycia znajdziesz w przewodniku po wywoływaniu funkcji.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych wystąpień SafetySetting
do blokowania niebezpiecznych treści.
Będzie to wymagane w przypadku znaczników GenerateContentRequest.contents
i GenerateContentResponse.candidates
. W przypadku każdego typu SafetyCategory
nie powinno być więcej niż 1 ustawienia. Interfejs API będzie blokować wszystkie treści i odpowiedzi, które nie spełniają wartości granicznych określonych przez te ustawienia. Ta lista zastępuje domyślne ustawienia każdego SafetyCategory
określonego w safetySettings. Jeśli na liście nie ma podanego SafetySetting
dla danego SafetyCategory
, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. Obsługiwane są kategorie szkodliwych treści HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT i HARM_CATEGORY_CIVIC_INTEGRITY. Szczegółowe informacje o dostępnych ustawieniach zabezpieczeń znajdziesz w przewodniku. Zapoznaj się też ze wskazówkami dotyczącymi bezpieczeństwa, aby dowiedzieć się, jak uwzględniać kwestie bezpieczeństwa w aplikacji wykorzystującej AI.
systemInstruction
object (Content
)
Opcjonalnie: Deweloper ustawił instrukcje systemowe. Obecnie tylko tekst.
generationConfig
object (GenerationConfig
)
Opcjonalnie: Opcje konfiguracji generowania modelu i wyjść.
cachedContent
string
Opcjonalnie: Nazwa treści przechowywanej w pamięci podręcznej, która ma służyć jako kontekst do wyświetlenia prognozy. Format: cachedContents/{cachedContent}
Przykładowe żądanie
Tekst
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Obraz
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Audio
Python
Node.js
Muszla
Wideo
Python
Node.js
Przeczytaj
Muszla
Python
Muszla
Czat
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Cache (Pamięć podręczna)
Python
Node.js
Dostrojony model
Python
Tryb JSON
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Wykonywanie kodu
Python
Kotlin
Java
Wywoływanie funkcji
Python
Node.js
Muszla
Kotlin
Swift
Dart
Java
Konfiguracja generacji
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Ustawienia bezpieczeństwa
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Instrukcja systemowa
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateContentResponse
.
Metoda: tunedModels.streamGenerateContent
Generuje strumień odpowiedzi z modelu na podstawie danych wejściowych GenerateContentRequest
.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:streamGenerateContent
Adres URL używa składni transkodowania gRPC.
Parametry ścieżki
model
string
Wymagany. Nazwa Model
, która ma być użyta do wygenerowania zakończenia.
Format: models/{model}
. Ma ona postać tunedModels/{tunedmodel}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
tools[]
object (Tool
)
Opcjonalnie: Lista Tools
, których Model
może użyć do wygenerowania następnej odpowiedzi.
Tool
to fragment kodu, który umożliwia systemowi interakcję z systemami zewnętrznymi w celu wykonania działania lub zestawu działań poza wiedzą i zakresem Model
. Obsługiwane wartości Tool
to Function
i codeExecution
. Więcej informacji znajdziesz w przewodniku po wywoływaniu funkcji i przewodniku po wykonywaniu kodu.
toolConfig
object (ToolConfig
)
Opcjonalnie: Konfiguracja narzędzia dla dowolnego Tool
określonego w żądaniu. Przykład użycia znajdziesz w przewodniku po wywoływaniu funkcji.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych wystąpień SafetySetting
do blokowania niebezpiecznych treści.
Będzie to wymagane w przypadku znaczników GenerateContentRequest.contents
i GenerateContentResponse.candidates
. W przypadku każdego typu SafetyCategory
nie powinno być więcej niż 1 ustawienia. Interfejs API będzie blokować wszystkie treści i odpowiedzi, które nie spełniają wartości granicznych określonych przez te ustawienia. Ta lista zastępuje domyślne ustawienia każdego SafetyCategory
określonego w safetySettings. Jeśli na liście nie ma podanego SafetySetting
dla danego SafetyCategory
, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. Obsługiwane są kategorie szkodliwych treści HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT i HARM_CATEGORY_CIVIC_INTEGRITY. Szczegółowe informacje o dostępnych ustawieniach zabezpieczeń znajdziesz w przewodniku. Zapoznaj się też ze wskazówkami dotyczącymi bezpieczeństwa, aby dowiedzieć się, jak uwzględniać kwestie bezpieczeństwa w aplikacji wykorzystującej AI.
systemInstruction
object (Content
)
Opcjonalnie: Deweloper ustawił instrukcje systemowe. Obecnie tylko tekst.
generationConfig
object (GenerationConfig
)
Opcjonalnie: Opcje konfiguracji generowania modelu i wyjść.
cachedContent
string
Opcjonalnie: Nazwa treści przechowywanej w pamięci podręcznej, która ma służyć jako kontekst do wyświetlenia prognozy. Format: cachedContents/{cachedContent}
Przykładowe żądanie
Tekst
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Obraz
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Audio
Python
Muszla
Wideo
Python
Node.js
Przeczytaj
Muszla
Python
Muszla
Czat
Python
Node.js
Przeczytaj
Muszla
Kotlin
Swift
Dart
Java
Treść odpowiedzi
Jeśli operacja się powiedzie, treść odpowiedzi będzie zawierała strumień instancji GenerateContentResponse
.
Metoda: tunedModels.get
Pobiera informacje o konkretnym modelu TunedModel.
Punkt końcowy
gethttps: / /generativelanguage.googleapis.com /v1beta /{name=tunedModels /*}
Adres URL używa składni transkodowania gRPC.
Parametry ścieżki
name
string
Wymagany. Nazwa zasobu modelu.
Format: tunedModels/my-model-id
Ma postać tunedModels/{tunedmodel}
.
Treść żądania
Treść żądania musi być pusta.
Przykładowe żądanie
Python
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu TunedModel
.
Metoda: tunedModels.list
- Punkt końcowy
- Parametry zapytania
- Treść żądania
- Treść odpowiedzi
- Zakresy autoryzacji
- Przykładowe żądanie
Wyświetla utworzone modele dostrojone.
Punkt końcowy
gethttps: / /generativelanguage.googleapis.com /v1beta /tunedModels
Adres URL używa składni transkodowania gRPC.
Parametry zapytania
pageSize
integer
Opcjonalnie: Maksymalna liczba TunedModels
do zwrócenia (na stronę). Usługa może zwrócić mniej dopasowanych modeli.
Jeśli nie podasz tej wartości, zwróci się maksymalnie 10 modeli. Ta metoda zwraca maksymalnie 1000 modeli na stronę, nawet jeśli podasz większą wartość parametru pageSize.
pageToken
string
Opcjonalnie: Token strony otrzymany z poprzedniego wywołania funkcji tunedModels.list
.
Aby pobrać kolejną stronę, podaj jako argument kolejnego żądania pageToken
zwrócony przez pierwsze żądanie.
Podczas podziału na strony wszystkie inne parametry przekazywane do funkcji tunedModels.list
muszą być zgodne z wywołaniem, które dostarczyło token strony.
filter
string
Opcjonalnie: Filtr to pełne wyszukiwanie tekstowe w opisie i nazwie wyświetlanej dopasowanego modelu. Domyślnie wyniki nie będą obejmować dostrojonych modeli udostępnionych wszystkim.
Dodatkowe operatory: – owner:me – writers:me – readers:me – readers:everyone
Przykłady: "owner:me" zwraca wszystkie dostrojone modele, w których przypadku wywołujący ma rolę właściciela "readers:me" zwraca wszystkie dostrojone modele, w których przypadku wywołujący ma rolę czytelnika "readers:everyone" zwraca wszystkie dostrojone modele, które są udostępnione wszystkim
Treść żądania
Treść żądania musi być pusta.
Przykładowe żądanie
Python
Treść odpowiedzi
Odpowiedź z tunedModels.list
zawierająca ponumerowane strony z modelami.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
tunedModels[]
object (TunedModel
)
Zwrócone modele.
nextPageToken
string
token, który może być wysyłany jako pageToken
w celu pobrania następnej strony.
Jeśli pominiesz to pole, nie będzie kolejnych stron.
Zapis JSON |
---|
{
"tunedModels": [
{
object ( |
Metoda: tunedModels.patch
Aktualizuje dostrojony model.
Punkt końcowy
patchhttps: / /generativelanguage.googleapis.com /v1beta /{tunedModel.name=tunedModels /*}
PATCH https://generativelanguage.googleapis.com/v1beta/{tunedModel.name=tunedModels/*}
Adres URL używa składni transkodowania gRPC.
Parametry ścieżki
tunedModel.name
string
Tylko dane wyjściowe. Nazwa dostrojonego modelu. Podczas tworzenia zostanie wygenerowana unikalna nazwa. Przykład: tunedModels/az2mb0bpw6i
jeśli podczas tworzenia elementu ustawisz parametr displayName, część identyfikatora nazwy zostanie ustawiona przez złączenie słów z parametru displayName za pomocą łączników i dodanie losowej części w celu zapewnienia unikalności.
Przykład:
- displayName =
Sentence Translator
- name =
tunedModels/sentence-translator-u3b7m
przyjmuje postaćtunedModels/{tunedmodel}
.
Parametry zapytania
updateMask
string (FieldMask
format)
Opcjonalnie: Lista pól do zaktualizowania.
Jest to lista pełnych nazw pól rozdzielona przecinkami. Przykład: "user.displayName,photo"
.
Treść żądania
Treść żądania zawiera wystąpienie elementu TunedModel
.
displayName
string
Opcjonalnie: Nazwa wyświetlana w interfejsach użytkownika. Wyświetlana nazwa może mieć maksymalnie 40 znaków (wliczając spacje).
description
string
Opcjonalnie: Krótki opis tego modelu.
tuningTask
object (TuningTask
)
Wymagany. Zadanie dostrajania, które tworzy model dostrojony.
readerProjectNumbers[]
string (int64 format)
Opcjonalnie: Lista numerów projektów, które mają dostęp do odczytu dostrojonego modelu.
source_model
Union type
source_model
może być tylko jednym z tych elementów:tunedModelSource
object (TunedModelSource
)
Opcjonalnie: TunedModel, który ma posłużyć jako punkt wyjścia do trenowania nowego modelu.
temperature
number
Opcjonalnie: Określa losowość danych wyjściowych.
Wartości mogą mieścić się w zakresie [0.0,1.0]
(obustronnie domkniętym). Wartość zbliżona do 1.0
spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość zbliżona do 0.0
spowoduje, że model będzie generował mniej zaskakujących odpowiedzi.
Ta wartość określa domyślny model podstawowy używany podczas tworzenia modelu.
topP
number
Opcjonalnie: Próbkowanie Nucleus.
Próbkowanie jądrowe uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP
.
Ta wartość określa domyślną wartość, która jest używana przez model podstawowy podczas tworzenia modelu.
topK
integer
Opcjonalnie: W przypadku próbkowania Top-K.
Próbkowanie Top-K uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu.
Ta wartość określa domyślny model podstawowy używany podczas tworzenia modelu.
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu TunedModel
.
Metoda: tunedModels.delete
Usuwa dostrojony model.
Punkt końcowy
deletehttps: / /generativelanguage.googleapis.com /v1beta /{name=tunedModels /*}
Adres URL używa składni transkodowania gRPC.
Parametry ścieżki
name
string
Wymagany. Nazwa zasobu modelu. Format: tunedModels/my-model-id
Ma postać tunedModels/{tunedmodel}
.
Treść żądania
Treść żądania musi być pusta.
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi to pusty obiekt JSON.
Zasób REST: tunedModels
- Zasób: TunedModel
- TunedModelSource
- Stan
- TuningTask
- TuningSnapshot
- Zbiór danych
- TuningExamples
- TuningExample
- Hiperparametry
- Metody
Zasób: TunedModel
Model dostrojony utworzony za pomocą ModelService.CreateTunedModel.
name
string
Tylko dane wyjściowe. Nazwa dostrojonego modelu. Podczas tworzenia zostanie wygenerowana unikalna nazwa. Przykład: tunedModels/az2mb0bpw6i
jeśli podczas tworzenia elementu ustawisz parametr displayName, część identyfikatora nazwy zostanie ustawiona przez złączenie słów z parametru displayName za pomocą łączników i dodanie losowej części w celu zapewnienia unikalności.
Przykład:
- displayName =
Sentence Translator
- name =
tunedModels/sentence-translator-u3b7m
displayName
string
Opcjonalnie: Nazwa wyświetlana w interfejsach użytkownika. Wyświetlana nazwa może mieć maksymalnie 40 znaków (wliczając spacje).
description
string
Opcjonalnie: Krótki opis tego modelu.
state
enum (State
)
Tylko dane wyjściowe. Stan dostosowanego modelu.
createTime
string (Timestamp
format)
Tylko dane wyjściowe. Sygnatura czasowa utworzenia tego modelu.
Używa standardu RFC 3339, w którym wygenerowany wynik jest zawsze znormalizowany według normy Z i zawiera 0, 3, 6 lub 9 cyfr ułamkowych. Akceptowane są też przesunięcia inne niż „Z”. Przykłady: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
lub "2014-10-02T15:01:23+05:30"
.
updateTime
string (Timestamp
format)
Tylko dane wyjściowe. Sygnatura czasowa zaktualizowania tego modelu.
Używa standardu RFC 3339, w którym wygenerowany wynik jest zawsze znormalizowany według normy Z i zawiera 0, 3, 6 lub 9 cyfr ułamkowych. Akceptowane są też przesunięcia inne niż „Z”. Przykłady: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
lub "2014-10-02T15:01:23+05:30"
.
tuningTask
object (TuningTask
)
Wymagany. Zadanie dostrajania, które tworzy model dostrojony.
readerProjectNumbers[]
string (int64 format)
Opcjonalnie: Lista numerów projektów, które mają dostęp do odczytu dostrojonego modelu.
source_model
Union type
source_model
może być tylko jednym z tych elementów:tunedModelSource
object (TunedModelSource
)
Opcjonalnie: TunedModel, który ma posłużyć jako punkt wyjścia do trenowania nowego modelu.
baseModel
string
Niezmienna. Nazwa Model
do dostosowania. Przykład: models/gemini-1.5-flash-001
temperature
number
Opcjonalnie: Określa losowość danych wyjściowych.
Wartości mogą mieścić się w zakresie [0.0,1.0]
(obustronnie domkniętym). Wartość zbliżona do 1.0
spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość zbliżona do 0.0
spowoduje, że model będzie generował mniej zaskakujących odpowiedzi.
Ta wartość określa domyślny model podstawowy używany podczas tworzenia modelu.
topP
number
Opcjonalnie: Próbkowanie Nucleus.
Próbkowanie jądrowe uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP
.
Ta wartość określa domyślną wartość, która jest używana przez model podstawowy podczas tworzenia modelu.
topK
integer
Opcjonalnie: W przypadku próbkowania Top-K.
Próbkowanie Top-K uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów. Ta wartość określa domyślne użycie przez backend podczas wywoływania modelu.
Ta wartość określa domyślny model podstawowy używany podczas tworzenia modelu.
Zapis JSON |
---|
{ "name": string, "displayName": string, "description": string, "state": enum ( |
TunedModelSource
Dostrojony model jako źródło do trenowania nowego modelu.
tunedModel
string
Niezmienna. Nazwa TunedModel
, która posłuży jako punkt wyjścia do trenowania nowego modelu. Przykład: tunedModels/my-tuned-model
baseModel
string
Tylko dane wyjściowe. Nazwa bazowej Model
, na podstawie której skonfigurowano TunedModel
. Przykład: models/gemini-1.5-flash-001
Zapis JSON |
---|
{ "tunedModel": string, "baseModel": string } |
Stan
Stan dostosowanego modelu.
Wartości w polu enum | |
---|---|
STATE_UNSPECIFIED |
Wartość domyślna. Ta wartość nie jest używana. |
CREATING |
Tworzę model. |
ACTIVE |
Model jest gotowy do użycia. |
FAILED |
Nie udało się utworzyć modelu. |
TuningTask
zadania dostrajania, które tworzą modele dostrojone;
startTime
string (Timestamp
format)
Tylko dane wyjściowe. Sygnatura czasowa rozpoczęcia dostrajania tego modelu.
Używa standardu RFC 3339, w którym wygenerowany wynik jest zawsze znormalizowany według normy Z i zawiera 0, 3, 6 lub 9 cyfr ułamkowych. Akceptowane są też przesunięcia inne niż „Z”. Przykłady: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
lub "2014-10-02T15:01:23+05:30"
.
completeTime
string (Timestamp
format)
Tylko dane wyjściowe. Sygnatura czasowa określająca, kiedy zakończono dostrajanie tego modelu.
Używa standardu RFC 3339, w którym wygenerowany wynik jest zawsze znormalizowany według normy Z i zawiera 0, 3, 6 lub 9 cyfr ułamkowych. Akceptowane są też przesunięcia inne niż „Z”. Przykłady: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
lub "2014-10-02T15:01:23+05:30"
.
snapshots[]
object (TuningSnapshot
)
Tylko dane wyjściowe. Dane zebrane podczas dostrajania.
trainingData
object (Dataset
)
Wymagany. Tylko dane wejściowe. Niezmienna. dane treningowe modelu.
hyperparameters
object (Hyperparameters
)
Niezmienna. Hiperparametry kontrolujące proces dostrajania. Jeśli nie podasz wartości, zostaną użyte wartości domyślne.
Zapis JSON |
---|
{ "startTime": string, "completeTime": string, "snapshots": [ { object ( |
TuningSnapshot
nagrywać podczas jednego etapu dostrajania.
step
integer
Tylko dane wyjściowe. Krok dostrajania.
epoch
integer
Tylko dane wyjściowe. Epoka, której dotyczył ten krok.
meanLoss
number
Tylko dane wyjściowe. Średnia strata przykładów treningowych na tym etapie.
computeTime
string (Timestamp
format)
Tylko dane wyjściowe. Sygnatura czasowa określająca, kiedy dane zostały obliczone.
Używa standardu RFC 3339, w którym wygenerowany wynik jest zawsze znormalizowany według normy Z i zawiera 0, 3, 6 lub 9 cyfr ułamkowych. Akceptowane są też przesunięcia inne niż „Z”. Przykłady: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
lub "2014-10-02T15:01:23+05:30"
.
Zapis JSON |
---|
{ "step": integer, "epoch": integer, "meanLoss": number, "computeTime": string } |
Zbiór danych
Zbiór danych do trenowania lub walidacji.
dataset
Union type
dataset
może być tylko jednym z tych elementów:examples
object (TuningExamples
)
Opcjonalnie: przykłady w tekście z prostym tekstem wejściowym i wyjściowym,
Zapis JSON |
---|
{
// dataset
"examples": {
object ( |
TuningExamples
zestaw przykładów dostrajania; Mogą to być dane treningowe lub dane służące do weryfikacji.
examples[]
object (TuningExample
)
Przykłady. Przykładowe dane wejściowe mogą być tekstem lub dyskusją, ale wszystkie przykłady w zbiorze muszą być tego samego typu.
Zapis JSON |
---|
{
"examples": [
{
object ( |
TuningExample
pojedynczy przykład do dostosowania;
output
string
Wymagany. Oczekiwane dane wyjściowe modelu.
model_input
Union type
model_input
może być tylko jednym z tych elementów:textInput
string
Opcjonalnie: Dane wejściowe modelu tekstowego.
Zapis JSON |
---|
{ "output": string, // model_input "textInput": string // Union type } |
Hiperparametry
Hiperparametry kontrolujące proces dostrajania. Więcej informacji znajdziesz na stronie https://ai.google.dev/docs/model_tuning_guidance.
learning_rate_option
Union type
learning_rate_option
może być tylko jednym z tych elementów:learningRate
number
Opcjonalnie: Niezmienna. Hiperparametr tempa uczenia się do dostrajania. Jeśli nie zostanie ustawiony, zostanie obliczona wartość domyślna 0,001 lub 0,0002 na podstawie liczby przykładów treningowych.
learningRateMultiplier
number
Opcjonalnie: Niezmienna. Mnożnik tempa uczenia się służy do obliczania ostatecznego learningRate na podstawie wartości domyślnej (zalecanej). Rzeczywiste tempo uczenia się :learningRateMultiplier * domyślne tempo uczenia się. Domyślne tempo uczenia się zależy od modelu podstawowego i wielkości zbioru danych. Jeśli nie zostanie ustawiona, zostanie użyta wartość domyślna 1,0.
epochCount
integer
Niezmienna. Liczba epok trenowania. Jedna epoka to jeden przebieg przez dane treningowe. Jeśli nie zostanie ustawiona, zostanie użyta domyślna wartość 5.
batchSize
integer
Niezmienna. Hiperparametr wielkości wsadu do dostrajania. Jeśli nie zostanie skonfigurowany, zostanie użyta domyślna wartość 4 lub 16 na podstawie liczby przykładów treningowych.
Zapis JSON |
---|
{ // learning_rate_option "learningRate": number, "learningRateMultiplier": number // Union type "epochCount": integer, "batchSize": integer } |