Models

L'endpoint models consente di elencare in modo programmatico i modelli disponibili e di recuperare metadati estesi come le funzionalità supportate e le dimensioni della finestra di contesto. Scopri di più nella guida Modelli.

Metodo: models.get

Recupera le informazioni su un Model specifico, ad esempio il numero di versione, i limiti di token, i parametri e altri metadati. Per informazioni dettagliate sui modelli, consulta la guida ai modelli Gemini.

Endpoint

get https://generativelanguage.googleapis.com/v1beta/{name=models/*}

L'URL utilizza la sintassi di transcodifica gRPC.

Parametri del percorso

name string

Obbligatorio. Il nome della risorsa del modello.

Questo nome deve corrispondere a un nome del modello restituito dal metodo models.list.

Formato: models/{model} Deve avere il formato models/{model}.

Corpo della richiesta

Il corpo della richiesta deve essere vuoto.

Richiesta di esempio

Python

# With Gemini-2 we're launching a new SDK, see this doc for details.
# https://ai.google.dev/gemini-api/docs/migrate

Conchiglia

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Corpo della risposta

In caso di esito positivo, il corpo della risposta contiene un'istanza di Model.

Metodo: models.list

Elenca i Model disponibili tramite l'API Gemini.

Endpoint

get https://generativelanguage.googleapis.com/v1beta/models

L'URL utilizza la sintassi di transcodifica gRPC.

Parametri di query

pageSize integer

Il numero massimo di Models da restituire (per pagina).

Se non specificato, verranno restituiti 50 modelli per pagina. Questo metodo restituisce al massimo 1000 modelli per pagina, anche se passi un valore pageSize più grande.

pageToken string

Un token di pagina ricevuto da una chiamata models.list precedente.

Fornisci il token pageToken restituito da una richiesta come argomento alla richiesta successiva per recuperare la pagina successiva.

Quando viene applicata la paginazione, tutti gli altri parametri forniti a models.list devono corrispondere alla chiamata che ha fornito il token pagina.

Corpo della richiesta

Il corpo della richiesta deve essere vuoto.

Richiesta di esempio

Python

# With Gemini-2 we're launching a new SDK, see this doc for details.
# https://ai.google.dev/gemini-api/docs/migrate

Conchiglia

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Corpo della risposta

Risposta da ListModel contenente un elenco paginato di modelli.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
models[] object (Model)

I modelli restituiti.

nextPageToken string

Un token che può essere inviato come pageToken per recuperare la pagina successiva.

Se questo campo viene omesso, non ci sono altre pagine.

Rappresentazione JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Risorsa REST: models

Risorsa: modello

Informazioni su un modello linguistico generativo.

Campi
name string

Obbligatorio. Il nome della risorsa del Model. Consulta la sezione Varianti del modello per tutti i valori consentiti.

Formato: models/{model} con una convenzione di denominazione {model} di:

  • "{baseModelId}-{version}"

Esempi:

  • models/gemini-1.5-flash-001
baseModelId string

Obbligatorio. Il nome del modello di base, da passare alla richiesta di generazione.

Esempi:

  • gemini-1.5-flash
version string

Obbligatorio. Il numero di versione del modello.

Rappresenta la versione principale (1.0 o 1.5)

displayName string

Il nome leggibile del modello. Ad esempio "Gemini 1.5 Flash".

Il nome può avere fino a 128 caratteri e può essere composto da qualsiasi carattere UTF-8.

description string

Una breve descrizione del modello.

inputTokenLimit integer

Numero massimo di token di input consentiti per questo modello.

outputTokenLimit integer

Numero massimo di token di output disponibili per questo modello.

supportedGenerationMethods[] string

I metodi di generazione supportati dal modello.

I nomi dei metodi API corrispondenti sono definiti come stringhe in maiuscolo, ad esempio generateMessage e generateContent.

temperature number

Controlla la casualità dell'output.

I valori possono essere superiori a [0.0,maxTemperature], inclusi. Un valore più alto produrrà risposte più varie, mentre un valore più vicino a 0.0 in genere genera risposte meno sorprendenti da parte del modello. Questo valore specifica il valore predefinito da utilizzare dal backend durante la chiamata al modello.

maxTemperature number

La temperatura massima che può essere utilizzata da questo modello.

topP number

Per il campionamento Nucleus.

Il campionamento Nucleus prende in considerazione l'insieme più piccolo di token la cui somma delle probabilità è almeno topP. Questo valore specifica il valore predefinito da utilizzare dal backend durante la chiamata al modello.

topK integer

Per il campionamento Top-K.

Il campionamento Top-K prende in considerazione l'insieme dei topK token più probabili. Questo valore specifica il valore predefinito da utilizzare dal backend durante la chiamata al modello. Se vuoto, indica che il modello non utilizza il campionamento dei primi k e che topK non è consentito come parametro di generazione.

Rappresentazione JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}