Metodo: models.get
- Endpoint
- Parametri percorso
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- Richiesta di esempio
- .
- Scarica
Recupera informazioni su un modello specifico.
Endpoint
recupera
https://generativelanguage.googleapis.com/v1beta/{name=models/*}
Parametri del percorso
name
string
Obbligatorio. Il nome risorsa del modello.
Questo nome deve corrispondere a un nome di modello restituito dal metodo models.list
.
Formato: models/{model}
Prende il formato models/{model}
.
Corpo della richiesta
Il corpo della richiesta deve essere vuoto.
Esempio di richiesta
Python
Conchiglia
Corpo della risposta
In caso di esito positivo, il corpo della risposta contiene un'istanza di Model
.
Metodo: model.list
- Endpoint
- Parametri di ricerca
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- Richiesta di esempio
- .
- Elenca
Elenca i modelli disponibili tramite l'API.
Endpoint
recupera
https://generativelanguage.googleapis.com/v1beta/models
Parametri di query
pageSize
integer
Il numero massimo di Models
da restituire (per pagina).
Il servizio potrebbe restituire un numero inferiore di modelli. Se non specificato, verranno restituiti al massimo 50 modelli per pagina. Questo metodo restituisce al massimo 1000 modelli per pagina, anche se passi un valore pageSize più grande.
pageToken
string
Un token di pagina, ricevuto da una precedente chiamata a models.list
.
Fornisci il valore pageToken
restituito da una richiesta come argomento per la richiesta successiva per recuperare la pagina successiva.
Durante l'impaginazione, tutti gli altri parametri forniti a models.list
devono corrispondere alla chiamata che ha fornito il token della pagina.
Corpo della richiesta
Il corpo della richiesta deve essere vuoto.
Esempio di richiesta
Python
Conchiglia
Corpo della risposta
Risposta da ListModel
contenente un elenco impaginato di modelli.
In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:
models[]
object (Model
)
I modelli restituiti.
nextPageToken
string
Un token, che può essere inviato come pageToken
per recuperare la pagina successiva.
Se questo campo viene omesso, non ci sono altre pagine.
Rappresentazione JSON |
---|
{
"models": [
{
object ( |
Risorsa REST: modelli
Risorsa: modello
Informazioni su un modello linguistico generativo.
Rappresentazione JSON |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |
name
string
Obbligatorio. Il nome della risorsa di Model
.
Formato: models/{model}
con una convenzione di denominazione {model}
di:
- "{baseModelId}-{version}"
Esempi:
models/chat-bison-001
baseModelId
string
Obbligatorio. Il nome del modello di base, passalo alla richiesta di generazione.
Esempi:
chat-bison
version
string
Obbligatorio. Il numero di versione del modello.
che rappresenta la versione principale
displayName
string
Il nome leggibile del modello. Ad es. "Chat Bison".
Il nome può contenere fino a 128 caratteri e può essere composto da qualsiasi carattere UTF-8.
description
string
Una breve descrizione del modello.
inputTokenLimit
integer
Numero massimo di token di input consentiti per questo modello.
outputTokenLimit
integer
Numero massimo di token di output disponibili per questo modello.
supportedGenerationMethods[]
string
I metodi di generazione supportati dal modello.
I nomi dei metodi sono definiti come stringhe con maiuscole e minuscole Pascal, ad esempio generateMessage
, che corrispondono ai metodi dell'API.
temperature
number
Controlla la casualità dell'output.
I valori possono essere superiori a [0.0,maxTemperature]
inclusi. Un valore più alto produrrà risposte più variegate, mentre un valore più vicino a 0.0
genererà risposte meno sorprendenti da parte del modello. Questo valore specifica il valore predefinito che deve essere utilizzato dal backend durante la chiamata al modello.
maxTemperature
number
La temperatura massima utilizzabile da questo modello.
topP
number
Per il campionamento del nucleo.
Il campionamento del nucleo prende in considerazione l'insieme più piccolo di token la cui somma di probabilità è almeno topP
. Questo valore specifica il valore predefinito che deve essere utilizzato dal backend durante la chiamata al modello.
topK
integer
Per il campionamento Top-k.
Il campionamento Top-k prende in considerazione l'insieme di topK
token più probabili. Questo valore specifica il valore predefinito che deve essere utilizzato dal backend durante la chiamata al modello. Se vuoto, indica che il modello non utilizza il campionamento top-k e topK
non è consentito come parametro di generazione.