PaLM (decommissioned)

Methode: models.generateText

Generiert eine Antwort des Modells auf eine Eingabenachricht.

Endpunkt

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText >
>

Pfadparameter

model string

Erforderlich. Der Name des Model oder TunedModel, der zum Generieren der Vervollständigung verwendet werden soll. Beispiele: models/text-bison-001 tunedModels/sentence-translator-u3b7m Das Format ist models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (TextPrompt)

Erforderlich. Der Freiform-Eingabetext, der dem Modell als Prompt gegeben wird.

Das Modell generiert anhand eines Prompts eine TextCompletion-Antwort, die es als Vervollständigung des Eingabetexts vorhersagt.

safetySettings[] object (SafetySetting)

Optional. Eine Liste mit eindeutigen SafetySetting-Instanzen zum Blockieren unsicherer Inhalte.

die auf der GenerateTextRequest.prompt und der GenerateTextResponse.candidates durchgesetzt werden. Es sollte nicht mehr als eine Einstellung für jeden SafetyCategory-Typ geben. Die API blockiert alle Prompts und Antworten, die die durch diese Einstellungen festgelegten Grenzwerte nicht erfüllen. Diese Liste überschreibt die Standardeinstellungen für jede SafetyCategory, die in „safetySettings“ angegeben ist. Wenn für ein bestimmtes SafetyCategory kein SafetySetting in der Liste angegeben ist, verwendet die API die Standardeinstellung für die Sicherheit für diese Kategorie. Die Kategorien schädlicher Inhalte HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL und HARM_CATEGORY_DANGEROUS werden im Textdienst unterstützt.

stopSequences[] string

Die Menge der Zeichenfolgen (bis zu 5), die die Ausgabegenerierung stoppen. Wenn angegeben, wird die API beim ersten Auftreten einer Stoppsequenz beendet. Die Stoppsequenz ist nicht Teil der Antwort.

temperature number

Optional. Steuert die Zufälligkeit der Ausgabe. Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.temperature des Model, das von der Funktion getModel zurückgegeben wird.

Die Werte können zwischen 0,0 und 1,0 liegen. Ein Wert, der näher an 1,0 liegt, führt zu vielfältigeren und kreativeren Antworten, während ein Wert, der näher an 0,0 liegt, in der Regel zu direkteren Antworten des Modells führt.

candidateCount integer

Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen.

Dieser Wert muss zwischen 1 und 8 (einschließlich) liegen. Wenn kein Wert festgelegt ist, wird standardmäßig 1 verwendet.

maxOutputTokens integer

Optional. Die maximale Anzahl von Tokens, die in einem Kandidaten enthalten sein dürfen.

Wenn nicht festgelegt, wird standardmäßig „outputTokenLimit“ verwendet, das in der Model-Spezifikation angegeben ist.

topP number

Optional. Die maximale kumulative Wahrscheinlichkeit der Tokens, die beim Sampling berücksichtigt werden sollen.

Das Modell verwendet eine Kombination aus Top-k- und Nucleus-Sampling.

Tokens werden nach ihren zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Beim Top-k-Sampling wird die maximale Anzahl der zu berücksichtigenden Tokens direkt begrenzt, während beim Nucleus-Sampling die Anzahl der Tokens auf der Grundlage der kumulativen Wahrscheinlichkeit begrenzt wird.

Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.top_p des Model, das von der Funktion getModel zurückgegeben wird.

topK integer

Optional. Die maximale Anzahl von Tokens, die beim Sampling berücksichtigt werden sollen.

Das Modell verwendet eine Kombination aus Top-k- und Nucleus-Sampling.

Beim Top-K-Sampling wird die Menge der topK wahrscheinlichsten Tokens berücksichtigt. Die Standardeinstellung ist 40.

Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.top_k des Model, das von der Funktion getModel zurückgegeben wird.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateTextResponse.

Methode: models.countTextTokens

Führt den Tokenizer eines Modells für einen Text aus und gibt die Anzahl der Tokens zurück.

Endpunkt

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens >
>

Pfadparameter

model string

Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.

Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list zurückgegeben wird.

Format: models/{model}. Es hat die Form models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (TextPrompt)

Erforderlich. Der Freiform-Eingabetext, der dem Modell als Prompt gegeben wird.

Antworttext

Eine Antwort von models.countTextTokens.

Sie gibt die tokenCount des Modells für die prompt zurück.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
tokenCount integer

Die Anzahl der Tokens, in die model prompt tokenisiert.

Immer nicht negativ.

JSON-Darstellung
{
  "tokenCount": integer
}

Methode: models.generateMessage

Generiert eine Antwort des Modells auf Grundlage einer Eingabe MessagePrompt.

Endpunkt

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage >
>

Pfadparameter

model string

Erforderlich. Der Name des zu verwendenden Modells.

Format: name=models/{model}. Sie hat die Form models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (MessagePrompt)

Erforderlich. Die strukturierte Texteingabe, die dem Modell als Prompt gegeben wird.

Wenn Sie einen Prompt eingeben, gibt das Modell die nächste Nachricht in der Diskussion zurück, die es vorhersagt.

temperature number

Optional. Steuert die Zufälligkeit der Ausgabe.

Die Werte können bis zu [0.0,1.0] betragen. Ein Wert, der näher an 1.0 liegt, führt zu vielfältigeren Antworten, während ein Wert, der näher an 0.0 liegt, in der Regel zu weniger überraschenden Antworten des Modells führt.

candidateCount integer

Optional. Die Anzahl der zurückzugebenden generierten Antwortnachrichten.

Dieser Wert muss zwischen [1, 8] liegen. Wenn nicht festgelegt, wird standardmäßig 1 verwendet.

topP number

Optional. Die maximale kumulative Wahrscheinlichkeit der Tokens, die beim Sampling berücksichtigt werden sollen.

Das Modell verwendet eine Kombination aus Top-k- und Nucleus-Sampling.

Beim Nucleus-Sampling wird die kleinste Menge von Tokens berücksichtigt, deren Wahrscheinlichkeitssumme mindestens topP beträgt.

topK integer

Optional. Die maximale Anzahl von Tokens, die beim Sampling berücksichtigt werden sollen.

Das Modell verwendet eine Kombination aus Top-k- und Nucleus-Sampling.

Beim Top-K-Sampling wird die Menge der topK wahrscheinlichsten Tokens berücksichtigt.

Antworttext

Die Antwort des Modells.

Dazu gehören Kandidatennachrichten und der Unterhaltungsverlauf in Form von chronologisch geordneten Nachrichten.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
candidates[] object (Message)

Kandidatenantwortnachrichten vom Modell.

messages[] object (Message)

Der vom Modell verwendete Unterhaltungsverlauf.

filters[] object (ContentFilter)

Eine Reihe von Metadaten zur Inhaltsfilterung für den Prompt- und Antworttext.

Hier wird angegeben, welche SafetyCategory einen Kandidaten in dieser Antwort blockiert haben, der niedrigste HarmProbability, der eine Blockierung ausgelöst hat, und die Einstellung für „HarmThreshold“ für diese Kategorie.

JSON-Darstellung
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Methode: models.countMessageTokens

Führt den Tokenizer eines Modells für einen String aus und gibt die Anzahl der Tokens zurück.

Endpunkt

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens >
>

Pfadparameter

model string

Erforderlich. Der Ressourcenname des Modells. Dies dient als ID für das zu verwendende Modell.

Dieser Name sollte mit einem Modellnamen übereinstimmen, der von der Methode models.list zurückgegeben wird.

Format: models/{model}. Es hat die Form models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
prompt object (MessagePrompt)

Erforderlich. Der Prompt, dessen Tokenanzahl zurückgegeben werden soll.

Antworttext

Eine Antwort von models.countMessageTokens.

Sie gibt die tokenCount des Modells für die prompt zurück.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
tokenCount integer

Die Anzahl der Tokens, in die model prompt tokenisiert.

Immer nicht negativ.

JSON-Darstellung
{
  "tokenCount": integer
}

Methode: models.embedText

Generiert eine Einbettung aus dem Modell anhand einer Eingabenachricht.

Endpunkt

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText >
>

Pfadparameter

model string

Erforderlich. Der Modellname, der mit dem Format „model=models/{model}“ verwendet werden soll. Sie hat die Form models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
text string

Optional. Der Freitext, den das Modell in eine Einbettung umwandelt.

Antworttext

Die Antwort auf eine EmbedTextRequest.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
embedding object (Embedding)

Nur Ausgabe. Die aus dem Eingabetext generierte Einbettung.

JSON-Darstellung
{
  "embedding": {
    object (Embedding)
  }
}

Methode: models.batchEmbedText

Generiert mehrere Einbettungen aus dem Modell, wenn Eingabetext in einem synchronen Aufruf angegeben wird.

Endpunkt

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText >
>

Pfadparameter

model string

Erforderlich. Der Name des Model, der zum Generieren der Einbettung verwendet werden soll. Beispiele: models/embedding-gecko-001. Das Format ist models/{model}.

Anfragetext

Der Anfragetext enthält Daten mit folgender Struktur:

Felder
texts[] string

Optional. Die Freitext-Eingabetexte, die das Modell in eine Einbettung umwandelt. Das aktuelle Limit liegt bei 100 Texten. Wenn Sie mehr als 100 Texte eingeben, wird ein Fehler ausgegeben.

requests[] object (EmbedTextRequest)

Optional. Einbetten von Anfragen für den Batch Es kann nur entweder texts oder requests festgelegt werden.

Antworttext

Die Antwort auf eine EmbedTextRequest.

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur:

Felder
embeddings[] object (Embedding)

Nur Ausgabe. Die aus dem Eingabetext generierten Einbettungen.

JSON-Darstellung
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Fordert eine Texteinbettung vom Modell an.

Felder
model string

Erforderlich. Der Modellname, der mit dem Format „model=models/{model}“ verwendet werden soll.

text string

Optional. Der Freitext, den das Modell in eine Einbettung umwandelt.

JSON-Darstellung
{
  "model": string,
  "text": string
}

ContentFilter

Metadaten zur Inhaltsfilterung, die mit der Verarbeitung einer einzelnen Anfrage verknüpft sind.

ContentFilter enthält einen Grund und einen optionalen unterstützenden String. Der Grund ist möglicherweise nicht angegeben.

Felder
reason enum (BlockedReason)

Der Grund, warum Inhalte während der Verarbeitung der Anfrage blockiert wurden.

message string

Ein String, der das Filterverhalten genauer beschreibt.

JSON-Darstellung
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

Eine Liste mit Gründen, warum Inhalte möglicherweise blockiert wurden.

Enums
BLOCKED_REASON_UNSPECIFIED Es wurde kein Grund für die Blockierung angegeben.
SAFETY Inhalte wurden durch Sicherheitseinstellungen blockiert.
OTHER Inhalte wurden blockiert, aber der Grund ist nicht kategorisiert.

Einbettung

Eine Liste von Gleitkommazahlen, die das Embedding darstellen.

Felder
value[] number

Die Einbettungswerte.

JSON-Darstellung
{
  "value": [
    number
  ]
}

Nachricht

Die Grundeinheit für strukturierten Text.

Ein Message enthält ein author und den content des Message.

Mit author werden Nachrichten getaggt, wenn sie als Text in das Modell eingespeist werden.

Felder
author string

Optional. Der Autor dieser Nachricht.

Dies dient als Schlüssel zum Taggen des Inhalts dieser Nachricht, wenn sie als Text in das Modell eingegeben wird.

Der Autor kann ein beliebiger alphanumerischer String sein.

content string

Erforderlich. Der Textinhalt des strukturierten Message.

citationMetadata object (CitationMetadata)

Nur Ausgabe. Zitierinformationen für modellgenerierte content in diesem Message.

Wenn dieses Message als Ausgabe des Modells generiert wurde, kann dieses Feld Attributionsinformationen für Text enthalten, der im content enthalten ist. Dieses Feld wird nur für die Ausgabe verwendet.

JSON-Darstellung
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

Der gesamte strukturierte Eingabetext, der als Prompt an das Modell übergeben wird.

Ein MessagePrompt enthält eine strukturierte Gruppe von Feldern, die Kontext für die Unterhaltung liefern, Beispiele für Paare aus Nutzereingabe- und Modellausgabemeldungen, die das Modell dazu anregen, auf unterschiedliche Weise zu reagieren, und den Unterhaltungsverlauf oder die Liste der Nachrichten, die die abwechselnden Züge der Unterhaltung zwischen dem Nutzer und dem Modell darstellen.

Felder
context string

Optional. Text, der dem Modell im Voraus als Antwortbasis bereitgestellt werden sollte.

Wenn dieser context nicht leer ist, wird er dem Modell zuerst vor dem examples und messages übergeben. Wenn Sie ein context verwenden, müssen Sie es bei jeder Anfrage angeben, um die Kontinuität zu wahren.

Dieses Feld kann eine Beschreibung Ihres Prompts für das Modell enthalten, um Kontext bereitzustellen und die Antworten zu steuern. Beispiele: „Übersetze den Satz vom Englischen ins Französische.“ oder „Klassifiziere die Stimmung einer Aussage als fröhlich, traurig oder neutral.“

Alles, was in diesem Feld enthalten ist, hat Vorrang vor dem Nachrichtenverlauf, wenn die Gesamtgröße der Eingabe das inputTokenLimit des Modells überschreitet und die Eingabeanfrage gekürzt wird.

examples[] object (Example)

Optional. Beispiele dafür, was das Modell generieren soll.

Dazu gehören sowohl die Nutzereingabe als auch die Antwort, die das Modell nachahmen soll.

Diese examples werden genauso behandelt wie Unterhaltungsnachrichten, haben aber Vorrang vor dem Verlauf in messages: Wenn die Gesamtgröße der Eingabe das inputTokenLimit des Modells überschreitet, wird die Eingabe gekürzt. Elemente werden vor dem examples aus messages entfernt.

messages[] object (Message)

Erforderlich. Ein chronologisch sortierter Snapshot des letzten Unterhaltungsverlaufs.

Die Autoren wechseln sich ab.

Wenn die Gesamtgröße der Eingabe das inputTokenLimit des Modells überschreitet, wird die Eingabe gekürzt: Die ältesten Elemente werden aus messages entfernt.

JSON-Darstellung
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Beispiel

Ein Eingabe-/Ausgabebeispiel, das verwendet wird, um das Modell zu instruieren.

Sie zeigen, wie das Modell reagieren oder seine Antwort formatieren soll.

Felder
input object (Message)

Erforderlich. Ein Beispiel für eine Eingabe Message des Nutzers.

output object (Message)

Erforderlich. Ein Beispiel dafür, was das Modell bei der Eingabe ausgeben sollte.

JSON-Darstellung
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

Die Antwort des Modells, einschließlich der Kandidaten für die Vervollständigung.

Felder
candidates[] object (TextCompletion)

Kandidatenantworten des Modells.

filters[] object (ContentFilter)

Eine Reihe von Metadaten zur Inhaltsfilterung für den Prompt- und Antworttext.

Hier wird angegeben, welche SafetyCategory einen Kandidaten in dieser Antwort blockiert haben, der niedrigste HarmProbability, der eine Blockierung ausgelöst hat, und die Einstellung für „HarmThreshold“ für diese Kategorie. Dies gibt die kleinste Änderung an der SafetySettings an, die erforderlich wäre, um mindestens eine Antwort zu entsperren.

Die Blockierung wird durch die SafetySettings in der Anfrage (oder die Standard-SafetySettings der API) konfiguriert.

safetyFeedback[] object (SafetyFeedback)

Gibt Sicherheitsfeedback zur Inhaltsfilterung zurück.

JSON-Darstellung
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Ausgabetext, der von einem Modell zurückgegeben wird.

Felder
output string

Nur Ausgabe. Der vom Modell zurückgegebene generierte Text.

safetyRatings[] object (SafetyRating)

Bewertungen für die Sicherheit einer Antwort.

Pro Kategorie gibt es maximal eine Bewertung.

citationMetadata object (CitationMetadata)

Nur Ausgabe. Zitierinformationen für modellgenerierte output in diesem TextCompletion.

Dieses Feld kann Attributionsinformationen für Text enthalten, der in output enthalten ist.

JSON-Darstellung
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

Sicherheitsfeedback für eine gesamte Anfrage.

Dieses Feld wird ausgefüllt, wenn Inhalte in der Eingabe und/oder Antwort aufgrund von Sicherheitseinstellungen blockiert werden. SafetyFeedback ist möglicherweise nicht für jede HarmCategory vorhanden. Jedes SafetyFeedback gibt die von der Anfrage verwendeten Sicherheitseinstellungen sowie die niedrigste HarmProbability zurück, die zulässig sein sollte, um ein Ergebnis zurückzugeben.

Felder
rating object (SafetyRating)

Sicherheitsbewertung anhand von Inhalten.

setting object (SafetySetting)

Sicherheitseinstellungen, die auf die Anfrage angewendet wurden.

JSON-Darstellung
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Text, der dem Modell als Prompt gegeben wird.

Das Modell verwendet diesen TextPrompt, um eine Textvervollständigung zu generieren.

Felder
text string

Erforderlich. Der Text des Prompts.

JSON-Darstellung
{
  "text": string
}