REST Resource: models

Risorsa: modello

Informazioni su un modello linguistico generativo.

Rappresentazione JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "topP": number,
  "topK": integer
}
Campi
name

string

Obbligatoria. Il nome della risorsa di Model.

Formato: models/{model} con una convenzione di denominazione {model} di:

  • "{baseModelId}-{version}"

Esempi:

  • models/chat-bison-001
baseModelId

string

Obbligatoria. Il nome del modello di base. Passalo alla richiesta di generazione.

Esempi:

  • chat-bison
version

string

Obbligatoria. Il numero della versione del modello.

Rappresenta la versione principale

displayName

string

Il nome leggibile del modello. Ad esempio, "Chat Bison".

Il nome può avere fino a 128 caratteri e può essere composto da qualsiasi carattere UTF-8.

description

string

Una breve descrizione del modello.

inputTokenLimit

integer

Numero massimo di token di input consentiti per questo modello.

outputTokenLimit

integer

Numero massimo di token di output disponibili per questo modello.

supportedGenerationMethods[]

string

I metodi di generazione supportati dal modello.

I nomi dei metodi sono definiti come stringhe con maiuscole e minuscole Pascal, ad esempio generateMessage, che corrispondono ai metodi dell'API.

temperature

number

Controlla la casualità dell'output.

I valori possono essere superiori a [0.0,1.0], inclusi. Un valore più vicino a 1.0 genererà risposte più variabili, mentre un valore più vicino a 0.0 genererà risposte meno sorprendenti da parte del modello. Questo valore specifica il valore predefinito che il backend deve utilizzare durante la chiamata al modello.

topP

number

Per il campionamento del nucleo.

Il campionamento del nucleo considera il più piccolo insieme di token la cui somma di probabilità è almeno topP. Questo valore specifica il valore predefinito che il backend deve utilizzare durante la chiamata al modello.

topK

integer

Per il campionamento Top-K.

Il campionamento Top-K considera l'insieme di topK token più probabili. Questo valore specifica il valore predefinito che il backend deve utilizzare durante la chiamata al modello. Se vuoto, indica che il modello non utilizza il campionamento top-k e topK non è consentito come parametro di generazione.

Metodi

batchEmbedContents

Genera più incorporamenti dal testo di input del modello specificato in una chiamata sincrona.

batchEmbedText

Genera più incorporamenti dal testo di input del modello specificato in una chiamata sincrona.

countMessageTokens

Esegue il tokenizzatore di un modello su una stringa e restituisce il conteggio dei token.

countTextTokens

Esegue il tokenizzatore di un modello su un testo e restituisce il conteggio dei token.

countTokens

Esegue il tokenizzatore di un modello sui contenuti di input e restituisce il conteggio dei token.

embedContent

Genera un incorporamento dal modello a cui è stato assegnato un input Content.

embedText

Genera un incorporamento dal modello in base a un messaggio di input.

generateAnswer

Genera una risposta basata su fondamento sul modello a partire da un input GenerateAnswerRequest.

generateContent

Genera una risposta dal modello per un input GenerateContentRequest.

generateMessage

Genera una risposta dal modello per un input MessagePrompt.

generateText

Genera una risposta dal modello a un determinato messaggio di input.

get

Recupera le informazioni su un modello specifico.

list

Elenca i modelli disponibili tramite l'API.

streamGenerateContent

Genera una risposta in modalità flusso dal modello a cui è stato assegnato un input GenerateContentRequest.