Die Gemini Interactions API ist eine experimentelle API, mit der Entwickler generative KI-Anwendungen mit Gemini-Modellen erstellen können. Gemini ist unser leistungsstärkstes Modell, das von Grund auf multimodal konzipiert wurde. Es kann generalisieren und problemlos verschiedene Arten von Informationen wie Sprache, Bilder, Audio, Video und Code verstehen, verarbeiten und kombinieren. Sie können die Gemini API für Anwendungsfälle wie das Ableiten von Text und Bildern, die Generierung von Inhalten, Dialog-Agents, Zusammenfassungs- und Klassifizierungssysteme und vieles mehr verwenden.
Interaktion erstellen
Erstellt eine neue Interaktion.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
model ModelOption (optional)
Der Name des `Model`, das zum Generieren der Interaktion verwendet wurde.
Erforderlich, wenn „agent“ nicht angegeben ist.
Mögliche Werte:
-
gemini-2.5-computer-use-preview-10-2025Ein agentisches Funktionsmodell, das für die direkte Interaktion mit der Benutzeroberfläche entwickelt wurde und es Gemini ermöglicht, digitale Umgebungen wahrzunehmen und darin zu navigieren.
-
gemini-2.5-flashUnser erstes Hybrid-Reasoning-Modell, das ein Kontextfenster mit 1 Million Tokens unterstützt und über Denkbudgets verfügt.
-
gemini-2.5-flash-imageUnser natives Modell für die Bildgenerierung, das für Geschwindigkeit, Flexibilität und kontextuelles Verständnis optimiert ist. Die Preise für Texteingabe und -ausgabe entsprechen denen für 2.5 Flash.
-
gemini-2.5-flash-liteUnser kleinstes und kostengünstigstes Modell, das für die Nutzung im großen Maßstab entwickelt wurde.
-
gemini-2.5-flash-lite-preview-09-2025Das neueste Modell basiert auf Gemini 2.5 Flash Lite und ist für Kosteneffizienz, hohen Durchsatz und hohe Qualität optimiert.
-
gemini-2.5-flash-native-audio-preview-12-2025Unsere nativen Audiomodelle sind für Audioausgaben mit höherer Qualität optimiert und bieten ein besseres Tempo, natürlichere Stimmen, mehr Ausführlichkeit und eine passendere Stimmungslage.
-
gemini-2.5-flash-preview-09-2025Das neueste Modell, das auf dem Modell 2.5 Flash basiert. 2.5 Flash Preview eignet sich am besten für die Verarbeitung großer Mengen, Aufgaben mit niedriger Latenz und hohem Volumen, die Denkprozesse erfordern, sowie für agentenbasierte Anwendungsfälle.
-
gemini-2.5-flash-preview-ttsUnser 2.5 Flash-Modell für die Sprachausgabe, das für leistungsstarke, latenzarme und steuerbare Sprachgenerierung optimiert ist.
-
gemini-2.5-proUnser hochmodernes Mehrzweckmodell, das sich besonders gut für Programmier- und komplexe Logikaufgaben eignet.
-
gemini-2.5-pro-preview-ttsUnser 2.5 Pro-Modell für die Sprachsynthese ist für die leistungsstarke, latenzarme Sprachgenerierung optimiert und bietet natürlichere Ausgaben und einfacher zu steuernde Prompts.
-
gemini-3-flash-previewUnser intelligentestes Modell, das auf Geschwindigkeit ausgelegt ist und bahnbrechende Intelligenz mit überlegener Suche und Fundierung kombiniert.
-
gemini-3-pro-image-previewHochmodernes Modell für die Bildgenerierung und ‑bearbeitung.
-
gemini-3-pro-previewUnser bisher intelligentestes Modell mit modernsten Funktionen für logische Schlussfolgerungen und multimodales Verstehen sowie leistungsstarken Funktionen für Agent- und Vibe-Coding.
-
gemini-3.1-pro-previewUnser neuestes, hochmodernes Modell für logische Schlussfolgerungen mit beispielloser Tiefe und Nuance sowie leistungsstarken multimodalen und Programmierfunktionen.
-
gemini-3.1-flash-image-previewVisuelle Intelligenz auf Profiniveau mit der Effizienz von Flash und realitätsnahen Generierungsfunktionen.
-
gemini-3.1-flash-lite-previewUnser kostengünstigstes Modell, das für agentische Aufgaben mit hohem Volumen, Übersetzungen und einfache Datenverarbeitung optimiert ist.
-
gemini-3.1-flash-tts-previewGemini 3.1 Flash TTS: Leistungsstarke Sprachgenerierung mit geringer Latenz. Sie können sich auf natürliche Ausgaben, steuerbare Prompts und neue ausdrucksstarke Audio-Tags für eine präzise Steuerung der Sprachausgabe freuen.
-
lyria-3-clip-previewUnser Modell zur Musikgenerierung mit geringer Latenz ist für Audio-Clips mit hoher Wiedergabetreue und präzise rhythmische Steuerung optimiert.
-
lyria-3-pro-previewUnser fortschrittliches, generatives Modell für ganze Songs mit umfassendem Verständnis für Komposition, optimiert für präzise strukturelle Steuerung und komplexe Übergänge zwischen verschiedenen Musikstilen.
agent AgentOption (optional)
Der Name des `Agent`, der zum Generieren der Interaktion verwendet wurde.
Erforderlich, wenn „model“ nicht angegeben ist.
Mögliche Werte:
-
deep-research-pro-preview-12-2025Gemini Deep Research-Agent
-
deep-research-preview-04-2026Gemini Deep Research-Agent
-
deep-research-max-preview-04-2026Gemini Deep Research Max-Agent
Die Eingaben für die Interaktion (gemeinsam für Modell und Agent).
Systemanweisung für die Interaktion.
Eine Liste der Tool-Deklarationen, die das Modell während der Interaktion aufrufen kann.
Erzwingt, dass die generierte Antwort ein JSON-Objekt ist, das dem in diesem Feld angegebenen JSON-Schema entspricht.
Der MIME-Typ der Antwort. Erforderlich, wenn „response_format“ festgelegt ist.
Nur Eingabe. Ob die Interaktion gestreamt wird.
Nur Eingabe. Gibt an, ob die Antwort und die Anfrage für den späteren Abruf gespeichert werden sollen.
Nur Eingabe. Gibt an, ob die Modellinteraktion im Hintergrund ausgeführt werden soll.
generation_config GenerationConfig (optional)
Modellkonfiguration
Konfigurationsparameter für die Modellinteraktion.
Alternative zu „agent_config“. Gilt nur, wenn „model“ festgelegt ist.
Felder
Steuert die Zufälligkeit der Ausgabe.
Die maximale kumulative Wahrscheinlichkeit der Tokens, die beim Sampling berücksichtigt werden sollen.
Seed, der beim Decodieren für die Reproduzierbarkeit verwendet wird.
Eine Liste von Zeichenfolgen, die die Ausgabeinteraktion beenden.
thinking_level ThinkingLevel (optional)
Die Anzahl der Denk-Tokens, die das Modell generieren soll.
Mögliche Werte:
-
minimal -
low -
medium -
high
thinking_summaries ThinkingSummaries (optional)
Gibt an, ob Zusammenfassungen der Überlegungen in die Antwort aufgenommen werden sollen.
Mögliche Werte:
-
auto -
none
Die maximale Anzahl von Tokens, die in der Antwort enthalten sein sollen.
speech_config SpeechConfig (optional)
Konfiguration für die Sprachinteraktion.
Felder
Die Stimme des Sprechers.
Die Sprache der Rede.
Der Name des Sprechers muss mit dem Namen des Sprechers im Prompt übereinstimmen.
image_config ImageConfig (optional)
Konfiguration für die Bildinteraktion.
Felder
Keine Beschreibung vorhanden.
Mögliche Werte:
-
1:1 -
2:3 -
3:2 -
3:4 -
4:3 -
4:5 -
5:4 -
9:16 -
16:9 -
21:9 -
1:8 -
8:1 -
1:4 -
4:1
Keine Beschreibung vorhanden.
Mögliche Werte:
-
1K -
2K -
4K -
512
Die Konfiguration der Toolauswahl.
agent_config object (optional)
Agent Configuration (Agent-Konfiguration)
Konfiguration für den Agent.
Alternative zu `generation_config`. Gilt nur, wenn `agent` festgelegt ist.
Mögliche Typen
Polymorpher Diskriminator: type
DynamicAgentConfig
Konfiguration für dynamische Agenten.
Keine Beschreibung vorhanden.
Immer auf "dynamic" gesetzt.
DeepResearchAgentConfig
Konfiguration für den Deep Research-Agenten.
Keine Beschreibung vorhanden.
Immer auf "deep-research" gesetzt.
thinking_summaries ThinkingSummaries (optional)
Gibt an, ob Zusammenfassungen der Überlegungen in die Antwort aufgenommen werden sollen.
Mögliche Werte:
-
auto -
none
Gibt an, ob Visualisierungen in die Antwort aufgenommen werden sollen.
Mögliche Werte:
-
off -
auto
Ermöglicht die Human-in-the-Loop-Planung für den Deep Research-Agenten. Wenn diese Option auf „true“ gesetzt ist, enthält die Antwort des Deep Research-Agents einen Rechercheplan. Der Agent fährt dann nur fort, wenn der Nutzer den Plan im nächsten Zug bestätigt.
Die ID der vorherigen Interaktion, falls vorhanden.
response_modalities ResponseModality (optional)
Die angeforderten Modalitäten der Antwort (TEXT, IMAGE, AUDIO).
Mögliche Werte:
-
text -
image -
audio -
video -
document
service_tier ServiceTier (optional)
Die Serviceebene für die Interaktion.
Mögliche Werte:
-
flex -
standard -
priority
webhook_config WebhookConfig (optional)
Optional. Webhook-Konfiguration für den Empfang von Benachrichtigungen, wenn die Interaktion abgeschlossen ist.
Felder
Optional. Wenn diese Webhook-URIs festgelegt sind, werden sie anstelle der registrierten Webhooks für Webhook-Ereignisse verwendet.
Optional. Die Nutzermetadaten, die bei jeder Ereignisausgabe an die Webhooks zurückgegeben werden.
Antwort
Gibt eine Interaction-Ressource zurück.
Einfache Anfrage
Beispielantwort
{ "created": "2025-11-26T12:25:15Z", "id": "v1_ChdPU0F4YWFtNkFwS2kxZThQZ05lbXdROBIXT1NBeGFhbTZBcEtpMWU4UGdOZW13UTg", "model": "gemini-3-flash-preview", "object": "interaction", "steps": [ { "type": "model_output", "content": [ { "type": "text", "text": "Hello! I'm functioning perfectly and ready to assist you.\n\nHow are you doing today?" } ] } ], "status": "completed", "updated": "2025-11-26T12:25:15Z", "usage": { "input_tokens_by_modality": [ { "modality": "text", "tokens": 7 } ], "total_cached_tokens": 0, "total_input_tokens": 7, "total_output_tokens": 20, "total_thought_tokens": 22, "total_tokens": 49, "total_tool_use_tokens": 0 } }
In mehreren Schritten
Beispielantwort
{ "id": "v1_ChdPU0F4YWFtNkFwS2kxZThQZ05lbXdROBIXT1NBeGFhbTZBcEtpMWU4UGdOZW13UTg", "model": "gemini-3-flash-preview", "status": "completed", "object": "interaction", "created": "2025-11-26T12:22:47Z", "updated": "2025-11-26T12:22:47Z", "steps": [ { "type": "model_output", "content": [ { "type": "text", "text": "The capital of France is Paris." } ] } ], "usage": { "input_tokens_by_modality": [ { "modality": "text", "tokens": 50 } ], "total_cached_tokens": 0, "total_input_tokens": 50, "total_output_tokens": 10, "total_thought_tokens": 0, "total_tokens": 60, "total_tool_use_tokens": 0 } }
Bildeingabe
Beispielantwort
{ "id": "v1_ChdPU0F4YWFtNkFwS2kxZThQZ05lbXdROBIXT1NBeGFhbTZBcEtpMWU4UGdOZW13UTg", "model": "gemini-3-flash-preview", "status": "completed", "object": "interaction", "created": "2025-11-26T12:22:47Z", "updated": "2025-11-26T12:22:47Z", "steps": [ { "type": "model_output", "content": [ { "type": "text", "text": "A white humanoid robot with glowing blue eyes stands holding a red skateboard." } ] } ], "usage": { "input_tokens_by_modality": [ { "modality": "text", "tokens": 10 }, { "modality": "image", "tokens": 258 } ], "total_cached_tokens": 0, "total_input_tokens": 268, "total_output_tokens": 20, "total_thought_tokens": 0, "total_tokens": 288, "total_tool_use_tokens": 0 } }
Funktionsaufrufe
Beispielantwort
{ "id": "v1_ChdPU0F4YWFtNkFwS2kxZThQZ05lbXdROBIXT1NBeGFhbTZBcEtpMWU4UGdOZW13UTg", "model": "gemini-3-flash-preview", "status": "requires_action", "object": "interaction", "created": "2025-11-26T12:22:47Z", "updated": "2025-11-26T12:22:47Z", "steps": [ { "type": "function_call", "id": "gth23981", "name": "get_weather", "arguments": { "location": "Boston, MA" } } ], "usage": { "input_tokens_by_modality": [ { "modality": "text", "tokens": 100 } ], "total_cached_tokens": 0, "total_input_tokens": 100, "total_output_tokens": 25, "total_thought_tokens": 0, "total_tokens": 125, "total_tool_use_tokens": 50 } }
Deep Research
Beispielantwort
{ "id": "v1_ChdPU0F4YWFtNkFwS2kxZThQZ05lbXdROBIXT1NBeGFhbTZBcEtpMWU4UGdOZW13UTg", "agent": "deep-research-pro-preview-12-2025", "status": "completed", "object": "interaction", "created": "2025-11-26T12:22:47Z", "updated": "2025-11-26T12:22:47Z", "steps": [ { "type": "model_output", "content": [ { "type": "text", "text": "Here is a comprehensive research report on the current state of cancer research..." } ] } ], "usage": { "input_tokens_by_modality": [ { "modality": "text", "tokens": 20 } ], "total_cached_tokens": 0, "total_input_tokens": 20, "total_output_tokens": 1000, "total_thought_tokens": 500, "total_tokens": 1520, "total_tool_use_tokens": 0 } }
Interaktion abrufen
Ruft die vollständigen Details einer einzelnen Interaktion anhand ihrer `Interaction.id` ab.
Pfad-/Suchparameter
Die eindeutige ID der abzurufenden Interaktion.
Bei „true“ werden die generierten Inhalte inkrementell gestreamt.
Standardeinstellung: False
Optional. Wenn festgelegt, wird der Interaktionsstream ab dem nächsten Chunk nach dem Ereignis fortgesetzt, das durch die Ereignis-ID markiert ist. Kann nur verwendet werden, wenn „stream“ auf „true“ gesetzt ist.
Wenn diese Option auf „true“ gesetzt ist, wird die Eingabe in die Antwort aufgenommen.
Standardeinstellung: False
Zu verwendende API-Version.
Antwort
Gibt eine Interaction-Ressource zurück.
Interaktion abrufen
Beispielantwort
{ "id": "v1_ChdPU0F4YWFtNkFwS2kxZThQZ05lbXdROBIXT1NBeGFhbTZBcEtpMWU4UGdOZW13UTg", "model": "gemini-3-flash-preview", "status": "completed", "object": "interaction", "created": "2025-11-26T12:25:15Z", "updated": "2025-11-26T12:25:15Z", "steps": [ { "type": "model_output", "content": [ { "type": "text", "text": "I'm doing great, thank you for asking! How can I help you today?" } ] } ] }
Interaktion löschen
Löscht die Interaktion anhand der ID.
Pfad-/Suchparameter
Die eindeutige Kennung der zu löschenden Interaktion.
Zu verwendende API-Version.
Antwort
Bei Erfolg ist die Antwort leer.
Interaktion löschen
Interaktion abbrechen
Bricht eine Interaktion anhand der ID ab. Das gilt nur für Hintergrundinteraktionen, die noch laufen.
Pfad-/Suchparameter
Die eindeutige ID der abzubrechenden Interaktion.
Zu verwendende API-Version.
Antwort
Gibt eine Interaction-Ressource zurück.
Interaktion abbrechen
Beispielantwort
{ "id": "v1_ChdPU0F4YWFtNkFwS2kxZThQZ05lbXdROBIXT1NBeGFhbTZBcEtpMWU4UGdOZW13UTg", "agent": "deep-research-pro-preview-12-2025", "status": "cancelled", "object": "interaction", "created": "2025-11-26T12:25:15Z", "updated": "2025-11-26T12:25:15Z" }
Ressourcen
Interaktion
Die Interaction-Ressource.
Felder
model ModelOption (optional)
Der Name des `Model`, das zum Generieren der Interaktion verwendet wurde.
Mögliche Werte:
-
gemini-2.5-computer-use-preview-10-2025Ein agentisches Funktionsmodell, das für die direkte Interaktion mit der Benutzeroberfläche entwickelt wurde und es Gemini ermöglicht, digitale Umgebungen wahrzunehmen und darin zu navigieren.
-
gemini-2.5-flashUnser erstes Hybrid-Reasoning-Modell, das ein Kontextfenster mit 1 Million Tokens unterstützt und über Denkbudgets verfügt.
-
gemini-2.5-flash-imageUnser natives Modell für die Bildgenerierung, das für Geschwindigkeit, Flexibilität und kontextuelles Verständnis optimiert ist. Die Preise für Texteingabe und -ausgabe entsprechen denen für 2.5 Flash.
-
gemini-2.5-flash-liteUnser kleinstes und kostengünstigstes Modell, das für die Nutzung im großen Maßstab entwickelt wurde.
-
gemini-2.5-flash-lite-preview-09-2025Das neueste Modell basiert auf Gemini 2.5 Flash Lite und ist für Kosteneffizienz, hohen Durchsatz und hohe Qualität optimiert.
-
gemini-2.5-flash-native-audio-preview-12-2025Unsere nativen Audiomodelle sind für Audioausgaben mit höherer Qualität optimiert und bieten ein besseres Tempo, natürlichere Stimmen, mehr Ausführlichkeit und eine passendere Stimmungslage.
-
gemini-2.5-flash-preview-09-2025Das neueste Modell, das auf dem Modell 2.5 Flash basiert. 2.5 Flash Preview eignet sich am besten für die Verarbeitung großer Mengen, Aufgaben mit niedriger Latenz und hohem Volumen, die Denkprozesse erfordern, sowie für agentenbasierte Anwendungsfälle.
-
gemini-2.5-flash-preview-ttsUnser 2.5 Flash-Modell für die Sprachausgabe, das für leistungsstarke, latenzarme und steuerbare Sprachgenerierung optimiert ist.
-
gemini-2.5-proUnser hochmodernes Mehrzweckmodell, das sich besonders gut für Programmier- und komplexe Logikaufgaben eignet.
-
gemini-2.5-pro-preview-ttsUnser 2.5 Pro-Modell für die Sprachsynthese ist für die leistungsstarke, latenzarme Sprachgenerierung optimiert und bietet natürlichere Ausgaben und einfacher zu steuernde Prompts.
-
gemini-3-flash-previewUnser intelligentestes Modell, das auf Geschwindigkeit ausgelegt ist und bahnbrechende Intelligenz mit überlegener Suche und Fundierung kombiniert.
-
gemini-3-pro-image-previewHochmodernes Modell für die Bildgenerierung und ‑bearbeitung.
-
gemini-3-pro-previewUnser bisher intelligentestes Modell mit modernsten Funktionen für logische Schlussfolgerungen und multimodales Verstehen sowie leistungsstarken Funktionen für Agent- und Vibe-Coding.
-
gemini-3.1-pro-previewUnser neuestes, hochmodernes Modell für logische Schlussfolgerungen mit beispielloser Tiefe und Nuance sowie leistungsstarken multimodalen und Programmierfunktionen.
-
gemini-3.1-flash-image-previewVisuelle Intelligenz auf Profiniveau mit der Effizienz von Flash und realitätsnahen Generierungsfunktionen.
-
gemini-3.1-flash-lite-previewUnser kostengünstigstes Modell, das für agentische Aufgaben mit hohem Volumen, Übersetzungen und einfache Datenverarbeitung optimiert ist.
-
gemini-3.1-flash-tts-previewGemini 3.1 Flash TTS: Leistungsstarke Sprachgenerierung mit geringer Latenz. Sie können sich auf natürliche Ausgaben, steuerbare Prompts und neue ausdrucksstarke Audio-Tags für eine präzise Steuerung der Sprachausgabe freuen.
-
lyria-3-clip-previewUnser Modell zur Musikgenerierung mit geringer Latenz ist für Audio-Clips mit hoher Wiedergabetreue und präzise rhythmische Steuerung optimiert.
-
lyria-3-pro-previewUnser fortschrittliches, generatives Modell für ganze Songs mit umfassendem Verständnis für Komposition, optimiert für präzise strukturelle Steuerung und komplexe Übergänge zwischen verschiedenen Musikstilen.
agent AgentOption (optional)
Der Name des `Agent`, der zum Generieren der Interaktion verwendet wurde.
Mögliche Werte:
-
deep-research-pro-preview-12-2025Gemini Deep Research-Agent
-
deep-research-preview-04-2026Gemini Deep Research-Agent
-
deep-research-max-preview-04-2026Gemini Deep Research Max-Agent
Erforderlich. Nur Ausgabe. Eine eindeutige Kennung für den Abschluss der Interaktion.
Erforderlich. Nur Ausgabe. Der Status der Interaktion.
Mögliche Werte:
-
in_progress -
requires_action -
completed -
failed -
cancelled -
incomplete
Erforderlich. Nur Ausgabe. Die Uhrzeit, zu der die Antwort erstellt wurde, im ISO 8601-Format (JJJJ-MM-TTThh:mm:ssZ).
Erforderlich. Nur Ausgabe. Die Uhrzeit, zu der die Antwort zuletzt aktualisiert wurde, im ISO 8601-Format (JJJJ-MM-TTThh:mm:ssZ).
Nur Ausgabe. Die Rolle der Interaktion.
Systemanweisung für die Interaktion.
Eine Liste der Tool-Deklarationen, die das Modell während der Interaktion aufrufen kann.
usage Usage (optional)
Nur Ausgabe. Statistiken zur Tokennutzung der Interaktionsanfrage.
Felder
Anzahl der Tokens im Prompt (Kontext).
input_tokens_by_modality ModalityTokens (optional)
Eine Aufschlüsselung der Nutzung von Eingabetokens nach Modalität.
Felder
modality ResponseModality (optional)
Die mit der Anzahl der Tokens verknüpfte Modalität.
Mögliche Werte:
-
text -
image -
audio -
video -
document
Anzahl der Tokens für die Modalität.
Anzahl der Tokens im im Cache gespeicherten Teil des Prompts (dem im Cache gespeicherten Inhalt).
cached_tokens_by_modality ModalityTokens (optional)
Eine Aufschlüsselung der Nutzung von zwischengespeicherten Tokens nach Modalität.
Felder
modality ResponseModality (optional)
Die mit der Anzahl der Tokens verknüpfte Modalität.
Mögliche Werte:
-
text -
image -
audio -
video -
document
Anzahl der Tokens für die Modalität.
Die Gesamtzahl der Tokens in allen generierten Antworten.
output_tokens_by_modality ModalityTokens (optional)
Eine Aufschlüsselung der Nutzung von Ausgabetokens nach Modalität.
Felder
modality ResponseModality (optional)
Die mit der Anzahl der Tokens verknüpfte Modalität.
Mögliche Werte:
-
text -
image -
audio -
video -
document
Anzahl der Tokens für die Modalität.
Anzahl der Tokens in den Tool-Nutzungs-Prompts.
tool_use_tokens_by_modality ModalityTokens (optional)
Eine Aufschlüsselung der Tokennutzung für die Tool-Verwendung nach Modalität.
Felder
modality ResponseModality (optional)
Die mit der Anzahl der Tokens verknüpfte Modalität.
Mögliche Werte:
-
text -
image -
audio -
video -
document
Anzahl der Tokens für die Modalität.
Anzahl der Tokens für Gedanken für Thinking-Modelle.
Gesamtzahl der Tokens für die Interaktionsanfrage (Prompt + Antworten + andere interne Tokens).
grounding_tool_count GroundingToolCount (optional)
Anzahl der Fundierungs-Tools.
Felder
Der Typ des Grounding-Tools, das der Anzahl zugeordnet ist.
Mögliche Werte:
-
google_search -
google_maps -
retrieval
Die Anzahl der Grounding-Tools.
response_modalities ResponseModality (optional)
Die angeforderten Modalitäten der Antwort (TEXT, IMAGE, AUDIO).
Mögliche Werte:
-
text -
image -
audio -
video -
document
Der MIME-Typ der Antwort. Erforderlich, wenn „response_format“ festgelegt ist.
Die ID der vorherigen Interaktion, falls vorhanden.
service_tier ServiceTier (optional)
Die Serviceebene für die Interaktion.
Mögliche Werte:
-
flex -
standard -
priority
webhook_config WebhookConfig (optional)
Optional. Webhook-Konfiguration für den Empfang von Benachrichtigungen, wenn die Interaktion abgeschlossen ist.
Felder
Optional. Wenn diese Webhook-URIs festgelegt sind, werden sie anstelle der registrierten Webhooks für Webhook-Ereignisse verwendet.
Optional. Die Nutzermetadaten, die bei jeder Ereignisausgabe an die Webhooks zurückgegeben werden.
steps Step (optional)
Nur Ausgabe. Die Schritte, aus denen die Interaktion besteht.
Mögliche Typen
Polymorpher Diskriminator: type
UserInputStep
Vom Nutzer bereitgestellte Eingaben.
Keine Beschreibung vorhanden.
Immer auf "user_input" gesetzt.
Keine Beschreibung vorhanden.
ModelOutputStep
Die vom Modell generierte Ausgabe.
Keine Beschreibung vorhanden.
Immer auf "model_output" gesetzt.
Keine Beschreibung vorhanden.
ThoughtStep
Ein Gedankenschritt.
Keine Beschreibung vorhanden.
Immer auf "thought" gesetzt.
Ein Signatur-Hash für die Backend-Validierung.
summary ThoughtSummaryContent (optional)
Eine Zusammenfassung des Gedankens.
Mögliche Typen
Polymorpher Diskriminator: type
TextContent
Ein Textinhaltsblock.
Keine Beschreibung vorhanden.
Immer auf "text" gesetzt.
Erforderlich. Der Textinhalt.
annotations Annotation (optional)
Quellenangaben für modellgenerierte Inhalte.
Mögliche Typen
Polymorpher Diskriminator: type
UrlCitation
Eine URL-Zitationsanmerkung.
Keine Beschreibung vorhanden.
Immer auf "url_citation" gesetzt.
Die URL.
Der Titel der URL.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
FileCitation
Eine Dateizitationsanmerkung.
Keine Beschreibung vorhanden.
Immer auf "file_citation" gesetzt.
Der URI der Datei.
Der Name der Datei.
Die Quelle, die einem Teil des Texts zugeordnet ist.
Vom Nutzer bereitgestellte Metadaten zum abgerufenen Kontext.
Seitenzahl des zitierten Dokuments, falls zutreffend.
Media-ID bei Bildquellenangaben, falls zutreffend.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
PlaceCitation
Eine Anmerkung mit einer Ortsangabe.
Keine Beschreibung vorhanden.
Immer auf "place_citation" gesetzt.
Die ID des Orts im Format „places/{place_id}“.
Titel des Orts.
URI-Referenz des Orts.
review_snippets ReviewSnippet (optional)
Ausschnitte aus Rezensionen, die zum Generieren von Antworten zu den Funktionen eines bestimmten Orts in Google Maps verwendet werden.
Felder
Titel der Rezension.
Ein Link, der der Nutzerrezension auf Google Maps entspricht.
Die ID des Rezensions-Snippets.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
ImageContent
Ein Inhaltsblock mit einem Bild.
Keine Beschreibung vorhanden.
Immer auf "image" gesetzt.
Der Bildinhalt.
Der URI des Bildes.
Der MIME-Typ des Bildes.
Mögliche Werte:
-
image/png -
image/jpeg -
image/webp -
image/heic -
image/heif -
image/gif -
image/bmp -
image/tiff
resolution MediaResolution (optional)
Die Auflösung der Media.
Mögliche Werte:
-
low -
medium -
high -
ultra_high
FunctionCallStep
Ein Funktions-Tool-Aufrufschritt.
Keine Beschreibung vorhanden.
Immer auf "function_call" gesetzt.
Erforderlich. Der Name des aufzurufenden Tools.
Erforderlich. Die Argumente, die an die Funktion übergeben werden sollen.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
CodeExecutionCallStep
Aufrufschritt für die Codeausführung.
Keine Beschreibung vorhanden.
Immer auf "code_execution_call" gesetzt.
arguments CodeExecutionCallStepArguments (erforderlich)
Erforderlich. Die Argumente, die an die Codeausführung übergeben werden sollen.
Felder
Programmiersprache des „code“.
Mögliche Werte:
-
python
Der auszuführende Code.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
UrlContextCallStep
Schritt für den URL-Kontextaufruf.
Keine Beschreibung vorhanden.
Immer auf "url_context_call" gesetzt.
arguments UrlContextCallStepArguments (erforderlich)
Erforderlich. Die Argumente, die an den URL-Kontext übergeben werden sollen.
Felder
Die abzurufenden URLs.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
McpServerToolCallStep
MCPServer-Toolaufrufschritt.
Keine Beschreibung vorhanden.
Immer auf "mcp_server_tool_call" gesetzt.
Erforderlich. Der Name des aufgerufenen Tools.
Erforderlich. Der Name des verwendeten MCP-Servers.
Erforderlich. Das JSON-Objekt der Argumente für die Funktion.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
GoogleSearchCallStep
Google Suche-Anrufschritt.
Keine Beschreibung vorhanden.
Immer auf "google_search_call" gesetzt.
arguments GoogleSearchCallStepArguments (erforderlich)
Erforderlich. Die Argumente, die an die Google Suche übergeben werden sollen.
Felder
Websuchanfragen für die anschließende Websuche.
Der Typ der aktivierten Fundierung der Suche.
Mögliche Werte:
-
web_search -
image_search -
enterprise_web_search
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
FileSearchCallStep
Anrufschritt für die Dateisuche.
Keine Beschreibung vorhanden.
Immer auf "file_search_call" gesetzt.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
GoogleMapsCallStep
Anrufschritt in Google Maps
Keine Beschreibung vorhanden.
Immer auf "google_maps_call" gesetzt.
arguments GoogleMapsCallStepArguments (optional)
Die Argumente, die an das Google Maps-Tool übergeben werden sollen.
Felder
Die auszuführenden Abfragen.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
FunctionResultStep
Ergebnis eines Funktions-Tool-Aufrufs.
Keine Beschreibung vorhanden.
Immer auf "function_result" gesetzt.
Der Name des aufgerufenen Tools.
Gibt an, ob beim Toolaufruf ein Fehler aufgetreten ist.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
Das Ergebnis des Tool-Aufrufs.
CodeExecutionResultStep
Schritt für das Ergebnis der Codeausführung.
Keine Beschreibung vorhanden.
Immer auf "code_execution_result" gesetzt.
Erforderlich. Die Ausgabe der Codeausführung.
Gibt an, ob bei der Codeausführung ein Fehler aufgetreten ist.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
UrlContextResultStep
Ergebnisschritt für den URL-Kontext.
Keine Beschreibung vorhanden.
Immer auf "url_context_result" gesetzt.
result UrlContextResultItem (erforderlich)
Erforderlich. Die Ergebnisse des URL-Kontexts.
Felder
Die abgerufene URL.
Der Status des URL-Abrufs.
Mögliche Werte:
-
success -
error -
paywall -
unsafe
Gibt an, ob der URL-Kontext zu einem Fehler geführt hat.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
GoogleSearchResultStep
Schritt für Google-Suchergebnisse.
Keine Beschreibung vorhanden.
Immer auf "google_search_result" gesetzt.
result GoogleSearchResultItem (erforderlich)
Erforderlich. Die Ergebnisse der Google Suche.
Felder
Webinhalts-Snippet, das in eine Webseite oder eine App-Webview eingebettet werden kann.
Gibt an, ob bei der Google-Suche ein Fehler aufgetreten ist.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
McpServerToolResultStep
Schritt für das Ergebnis des MCPServer-Tools.
Keine Beschreibung vorhanden.
Immer auf "mcp_server_tool_result" gesetzt.
Name des Tools, das für diesen bestimmten Tool-Aufruf aufgerufen wird.
Der Name des verwendeten MCP-Servers.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
Die Ausgabe des MCP-Serveraufrufs. Kann einfacher Text oder Rich Content sein.
FileSearchResultStep
Schritt für Dateisuchergebnis.
Keine Beschreibung vorhanden.
Immer auf "file_search_result" gesetzt.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
GoogleMapsResultStep
Google Maps-Ergebnisschritt.
Keine Beschreibung vorhanden.
Immer auf "google_maps_result" gesetzt.
result GoogleMapsResultItem (erforderlich)
Keine Beschreibung vorhanden.
Felder
places GoogleMapsResultPlaces (optional)
Keine Beschreibung vorhanden.
Felder
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
review_snippets ReviewSnippet (optional)
Keine Beschreibung vorhanden.
Felder
Titel der Rezension.
Ein Link, der der Nutzerrezension auf Google Maps entspricht.
Die ID des Rezensions-Snippets.
Keine Beschreibung vorhanden.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
Die Eingabe für die Interaktion.
Erzwingt, dass die generierte Antwort ein JSON-Objekt ist, das dem in diesem Feld angegebenen JSON-Schema entspricht.
agent_config object (optional)
Konfigurationsparameter für die Interaktion mit dem Agent.
Mögliche Typen
Polymorpher Diskriminator: type
DynamicAgentConfig
Konfiguration für dynamische Agenten.
Keine Beschreibung vorhanden.
Immer auf "dynamic" gesetzt.
DeepResearchAgentConfig
Konfiguration für den Deep Research-Agenten.
Keine Beschreibung vorhanden.
Immer auf "deep-research" gesetzt.
thinking_summaries ThinkingSummaries (optional)
Gibt an, ob Zusammenfassungen der Überlegungen in die Antwort aufgenommen werden sollen.
Mögliche Werte:
-
auto -
none
Gibt an, ob Visualisierungen in die Antwort aufgenommen werden sollen.
Mögliche Werte:
-
off -
auto
Ermöglicht die Human-in-the-Loop-Planung für den Deep Research-Agenten. Wenn diese Option auf „true“ gesetzt ist, enthält die Antwort des Deep Research-Agents einen Rechercheplan. Der Agent fährt dann nur fort, wenn der Nutzer den Plan im nächsten Zug bestätigt.
Beispiele
Beispiel
{ "created": "2025-12-04T15:01:45Z", "id": "v1_ChdXS0l4YWZXTk9xbk0xZThQczhEcmlROBIXV0tJeGFmV05PcW5NMWU4UHM4RHJpUTg", "model": "gemini-3-flash-preview", "object": "interaction", "steps": [ { "type": "model_output", "content": [ { "type": "text", "text": "Hello! I'm doing well, functioning as expected. Thank you for asking! How are you doing today?" } ] } ], "status": "completed", "updated": "2025-12-04T15:01:45Z", "usage": { "input_tokens_by_modality": [ { "modality": "text", "tokens": 7 } ], "total_cached_tokens": 0, "total_input_tokens": 7, "total_output_tokens": 23, "total_thought_tokens": 49, "total_tokens": 79, "total_tool_use_tokens": 0 } }
Datenmodelle
Inhalt
Der Inhalt der Antwort.
Mögliche Typen
Polymorpher Diskriminator: type
TextContent
Ein Textinhaltsblock.
Keine Beschreibung vorhanden.
Immer auf "text" gesetzt.
Erforderlich. Der Textinhalt.
annotations Annotation (optional)
Quellenangaben für modellgenerierte Inhalte.
Mögliche Typen
Polymorpher Diskriminator: type
UrlCitation
Eine URL-Zitationsanmerkung.
Keine Beschreibung vorhanden.
Immer auf "url_citation" gesetzt.
Die URL.
Der Titel der URL.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
FileCitation
Eine Dateizitationsanmerkung.
Keine Beschreibung vorhanden.
Immer auf "file_citation" gesetzt.
Der URI der Datei.
Der Name der Datei.
Die Quelle, die einem Teil des Texts zugeordnet ist.
Vom Nutzer bereitgestellte Metadaten zum abgerufenen Kontext.
Seitenzahl des zitierten Dokuments, falls zutreffend.
Media-ID bei Bildquellenangaben, falls zutreffend.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
PlaceCitation
Eine Anmerkung mit einer Ortsangabe.
Keine Beschreibung vorhanden.
Immer auf "place_citation" gesetzt.
Die ID des Orts im Format „places/{place_id}“.
Titel des Orts.
URI-Referenz des Orts.
review_snippets ReviewSnippet (optional)
Ausschnitte aus Rezensionen, die zum Generieren von Antworten zu den Funktionen eines bestimmten Orts in Google Maps verwendet werden.
Felder
Titel der Rezension.
Ein Link, der der Nutzerrezension auf Google Maps entspricht.
Die ID des Rezensions-Snippets.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
ImageContent
Ein Inhaltsblock mit einem Bild.
Keine Beschreibung vorhanden.
Immer auf "image" gesetzt.
Der Bildinhalt.
Der URI des Bildes.
Der MIME-Typ des Bildes.
Mögliche Werte:
-
image/png -
image/jpeg -
image/webp -
image/heic -
image/heif -
image/gif -
image/bmp -
image/tiff
resolution MediaResolution (optional)
Die Auflösung der Media.
Mögliche Werte:
-
low -
medium -
high -
ultra_high
AudioContent
Ein Audioinhaltsblock.
Keine Beschreibung vorhanden.
Immer auf "audio" gesetzt.
Die Audioinhalte.
Der URI des Audios.
Der MIME-Typ des Audios.
Mögliche Werte:
-
audio/wav -
audio/mp3 -
audio/aiff -
audio/aac -
audio/ogg -
audio/flac -
audio/mpeg -
audio/m4a -
audio/l16 -
audio/opus -
audio/alaw -
audio/mulaw
Die Anzahl der Audiokanäle.
Die Abtastrate des Audiosignals.
DocumentContent
Ein Inhaltsblock für Dokumente.
Keine Beschreibung vorhanden.
Immer auf "document" gesetzt.
Der Inhalt des Dokuments.
Der URI des Dokuments.
Der MIME-Typ des Dokuments.
Mögliche Werte:
-
application/pdf
VideoContent
Ein Videocontent-Block.
Keine Beschreibung vorhanden.
Immer auf "video" gesetzt.
Die Videoinhalte.
Der URI des Videos.
Der MIME-Typ des Videos.
Mögliche Werte:
-
video/mp4 -
video/mpeg -
video/mpg -
video/mov -
video/avi -
video/x-flv -
video/webm -
video/wmv -
video/3gpp
resolution MediaResolution (optional)
Die Auflösung der Media.
Mögliche Werte:
-
low -
medium -
high -
ultra_high
Beispiele
Text
{ "type": "text", "text": "Hello, how are you?" }
Bild
{ "type": "image", "data": "BASE64_ENCODED_IMAGE", "mime_type": "image/png" }
Audio
{ "type": "audio", "data": "BASE64_ENCODED_AUDIO", "mime_type": "audio/wav" }
Dokument
{ "type": "document", "data": "BASE64_ENCODED_DOCUMENT", "mime_type": "application/pdf" }
Video
{ "type": "video", "uri": "https://www.youtube.com/watch?v=9hE5-98ZeCg" }
Tool
Ein Tool, das vom Modell verwendet werden kann.
Mögliche Typen
Polymorpher Diskriminator: type
Funktion
Ein Tool, das vom Modell verwendet werden kann.
Keine Beschreibung vorhanden.
Immer auf "function" gesetzt.
Der Name der Funktion.
Eine Beschreibung der Funktion.
Das JSON-Schema für die Parameter der Funktion.
CodeExecution
Ein Tool, das vom Modell zum Ausführen von Code verwendet werden kann.
Keine Beschreibung vorhanden.
Immer auf "code_execution" gesetzt.
UrlContext
Ein Tool, mit dem das Modell URL-Kontext abrufen kann.
Keine Beschreibung vorhanden.
Immer auf "url_context" gesetzt.
ComputerUse
Ein Tool, das vom Modell verwendet werden kann, um mit dem Computer zu interagieren.
Keine Beschreibung vorhanden.
Immer auf "computer_use" gesetzt.
Die Umgebung, in der der Vorgang ausgeführt wird.
Mögliche Werte:
-
browser
Die Liste der vordefinierten Funktionen, die vom Modellaufruf ausgeschlossen sind.
McpServer
Ein MCPServer ist ein Server, der vom Modell aufgerufen werden kann, um Aktionen auszuführen.
Keine Beschreibung vorhanden.
Immer auf "mcp_server" gesetzt.
Der Name des MCPServers.
Die vollständige URL für den MCPServer-Endpunkt. Beispiel: „https://api.beispiel.de/mcp“
Optional: Felder für Authentifizierungsheader, Zeitüberschreitungen usw., falls erforderlich.
allowed_tools AllowedTools (optional)
Die zulässigen Tools.
Felder
mode ToolChoiceType (optional)
Der Modus der Tool-Auswahl.
Mögliche Werte:
-
auto -
any -
none -
validated
Die Namen der zulässigen Tools.
GoogleSearch
Ein Tool, das vom Modell verwendet werden kann, um in Google zu suchen.
Keine Beschreibung vorhanden.
Immer auf "google_search" gesetzt.
Die Arten von Suchgrundlagen, die aktiviert werden sollen.
Mögliche Werte:
-
web_search -
image_search -
enterprise_web_search
FileSearch
Ein Tool, das vom Modell zum Suchen von Dateien verwendet werden kann.
Keine Beschreibung vorhanden.
Immer auf "file_search" gesetzt.
Die Namen der Dateisuchspeicher, die durchsucht werden sollen.
Die Anzahl der semantischen Abruf-Chunks, die abgerufen werden sollen.
Metadatenfilter, der auf die Dokumente und Chunks für den semantischen Abruf angewendet werden soll.
GoogleMaps
Ein Tool, das vom Modell verwendet werden kann, um Google Maps aufzurufen.
Keine Beschreibung vorhanden.
Immer auf "google_maps" gesetzt.
Gibt an, ob im Ergebnis des Toolaufrufs der Antwort ein Widget-Kontext-Token zurückgegeben werden soll.
Der Breitengrad des Standorts des Nutzers.
Der Längengrad des Standorts des Nutzers.
Abruf
Ein Tool, mit dem das Modell Dateien abrufen kann.
Keine Beschreibung vorhanden.
Immer auf "retrieval" gesetzt.
Die Arten des Dateiwiederherstellungsvorgangs, die aktiviert werden sollen.
Mögliche Werte:
-
vertex_ai_search
vertex_ai_search_config VertexAISearchConfig (optional)
Wird verwendet, um die Konfiguration für VertexAISearch anzugeben.
Felder
Optional. Wird verwendet, um die Vertex AI Search-Engine anzugeben.
Optional. Wird verwendet, um Vertex AI Search-Datenspeicher anzugeben.
Beispiele
Funktion
CodeExecution
UrlContext
ComputerUse
McpServer
GoogleSearch
FileSearch
GoogleMaps
Abruf
Für diesen Typ sind keine Beispiele verfügbar.
InteractionSseEvent
Mögliche Typen
Polymorpher Diskriminator: event_type
InteractionCreatedEvent
Keine Beschreibung vorhanden.
Immer auf "interaction.created" gesetzt.
Keine Beschreibung vorhanden.
Das event_id-Token, das zum Fortsetzen des Interaktionsstreams ab diesem Ereignis verwendet werden soll.
InteractionCompletedEvent
Keine Beschreibung vorhanden.
Immer auf "interaction.completed" gesetzt.
Erforderlich. Die abgeschlossene Interaktion mit leeren Ausgaben, um die Nutzlastgröße zu reduzieren. Verwenden Sie die vorherigen ContentDelta-Ereignisse für die tatsächliche Ausgabe.
Das event_id-Token, das zum Fortsetzen des Interaktionsstreams ab diesem Ereignis verwendet werden soll.
InteractionStatusUpdate
Keine Beschreibung vorhanden.
Immer auf "interaction.status_update" gesetzt.
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
Mögliche Werte:
-
in_progress -
requires_action -
completed -
failed -
cancelled -
incomplete
Das event_id-Token, das zum Fortsetzen des Interaktionsstreams ab diesem Ereignis verwendet werden soll.
ErrorEvent
Keine Beschreibung vorhanden.
Immer auf "error" gesetzt.
Fehler Fehler (optional)
Keine Beschreibung vorhanden.
Felder
Ein URI, der den Fehlertyp identifiziert.
Eine für Menschen lesbare Fehlermeldung.
Das event_id-Token, das zum Fortsetzen des Interaktionsstreams ab diesem Ereignis verwendet werden soll.
StepStart
Keine Beschreibung vorhanden.
Immer auf "step.start" gesetzt.
Keine Beschreibung vorhanden.
step Step (erforderlich)
Keine Beschreibung vorhanden.
Mögliche Typen
Polymorpher Diskriminator: type
UserInputStep
Vom Nutzer bereitgestellte Eingaben.
Keine Beschreibung vorhanden.
Immer auf "user_input" gesetzt.
Keine Beschreibung vorhanden.
ModelOutputStep
Die vom Modell generierte Ausgabe.
Keine Beschreibung vorhanden.
Immer auf "model_output" gesetzt.
Keine Beschreibung vorhanden.
ThoughtStep
Ein Gedankenschritt.
Keine Beschreibung vorhanden.
Immer auf "thought" gesetzt.
Ein Signatur-Hash für die Backend-Validierung.
summary ThoughtSummaryContent (optional)
Eine Zusammenfassung des Gedankens.
Mögliche Typen
Polymorpher Diskriminator: type
TextContent
Ein Textinhaltsblock.
Keine Beschreibung vorhanden.
Immer auf "text" gesetzt.
Erforderlich. Der Textinhalt.
annotations Annotation (optional)
Quellenangaben für modellgenerierte Inhalte.
Mögliche Typen
Polymorpher Diskriminator: type
UrlCitation
Eine URL-Zitationsanmerkung.
Keine Beschreibung vorhanden.
Immer auf "url_citation" gesetzt.
Die URL.
Der Titel der URL.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
FileCitation
Eine Dateizitationsanmerkung.
Keine Beschreibung vorhanden.
Immer auf "file_citation" gesetzt.
Der URI der Datei.
Der Name der Datei.
Die Quelle, die einem Teil des Texts zugeordnet ist.
Vom Nutzer bereitgestellte Metadaten zum abgerufenen Kontext.
Seitenzahl des zitierten Dokuments, falls zutreffend.
Media-ID bei Bildquellenangaben, falls zutreffend.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
PlaceCitation
Eine Anmerkung mit einer Ortsangabe.
Keine Beschreibung vorhanden.
Immer auf "place_citation" gesetzt.
Die ID des Orts im Format „places/{place_id}“.
Titel des Orts.
URI-Referenz des Orts.
review_snippets ReviewSnippet (optional)
Ausschnitte aus Rezensionen, die zum Generieren von Antworten zu den Funktionen eines bestimmten Orts in Google Maps verwendet werden.
Felder
Titel der Rezension.
Ein Link, der der Nutzerrezension auf Google Maps entspricht.
Die ID des Rezensions-Snippets.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
ImageContent
Ein Inhaltsblock mit einem Bild.
Keine Beschreibung vorhanden.
Immer auf "image" gesetzt.
Der Bildinhalt.
Der URI des Bildes.
Der MIME-Typ des Bildes.
Mögliche Werte:
-
image/png -
image/jpeg -
image/webp -
image/heic -
image/heif -
image/gif -
image/bmp -
image/tiff
resolution MediaResolution (optional)
Die Auflösung der Media.
Mögliche Werte:
-
low -
medium -
high -
ultra_high
FunctionCallStep
Ein Funktions-Tool-Aufrufschritt.
Keine Beschreibung vorhanden.
Immer auf "function_call" gesetzt.
Erforderlich. Der Name des aufzurufenden Tools.
Erforderlich. Die Argumente, die an die Funktion übergeben werden sollen.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
CodeExecutionCallStep
Aufrufschritt für die Codeausführung.
Keine Beschreibung vorhanden.
Immer auf "code_execution_call" gesetzt.
arguments CodeExecutionCallStepArguments (erforderlich)
Erforderlich. Die Argumente, die an die Codeausführung übergeben werden sollen.
Felder
Programmiersprache des „code“.
Mögliche Werte:
-
python
Der auszuführende Code.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
UrlContextCallStep
Schritt für den URL-Kontextaufruf.
Keine Beschreibung vorhanden.
Immer auf "url_context_call" gesetzt.
arguments UrlContextCallStepArguments (erforderlich)
Erforderlich. Die Argumente, die an den URL-Kontext übergeben werden sollen.
Felder
Die abzurufenden URLs.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
McpServerToolCallStep
MCPServer-Toolaufrufschritt.
Keine Beschreibung vorhanden.
Immer auf "mcp_server_tool_call" gesetzt.
Erforderlich. Der Name des aufgerufenen Tools.
Erforderlich. Der Name des verwendeten MCP-Servers.
Erforderlich. Das JSON-Objekt der Argumente für die Funktion.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
GoogleSearchCallStep
Google Suche-Anrufschritt.
Keine Beschreibung vorhanden.
Immer auf "google_search_call" gesetzt.
arguments GoogleSearchCallStepArguments (erforderlich)
Erforderlich. Die Argumente, die an die Google Suche übergeben werden sollen.
Felder
Websuchanfragen für die anschließende Websuche.
Der Typ der aktivierten Fundierung der Suche.
Mögliche Werte:
-
web_search -
image_search -
enterprise_web_search
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
FileSearchCallStep
Anrufschritt für die Dateisuche.
Keine Beschreibung vorhanden.
Immer auf "file_search_call" gesetzt.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
GoogleMapsCallStep
Anrufschritt in Google Maps
Keine Beschreibung vorhanden.
Immer auf "google_maps_call" gesetzt.
arguments GoogleMapsCallStepArguments (optional)
Die Argumente, die an das Google Maps-Tool übergeben werden sollen.
Felder
Die auszuführenden Abfragen.
Erforderlich. Eine eindeutige ID für diesen bestimmten Tool-Aufruf.
Ein Signatur-Hash für die Backend-Validierung.
FunctionResultStep
Ergebnis eines Funktions-Tool-Aufrufs.
Keine Beschreibung vorhanden.
Immer auf "function_result" gesetzt.
Der Name des aufgerufenen Tools.
Gibt an, ob beim Toolaufruf ein Fehler aufgetreten ist.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
Das Ergebnis des Tool-Aufrufs.
CodeExecutionResultStep
Schritt für das Ergebnis der Codeausführung.
Keine Beschreibung vorhanden.
Immer auf "code_execution_result" gesetzt.
Erforderlich. Die Ausgabe der Codeausführung.
Gibt an, ob bei der Codeausführung ein Fehler aufgetreten ist.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
UrlContextResultStep
Ergebnisschritt für den URL-Kontext.
Keine Beschreibung vorhanden.
Immer auf "url_context_result" gesetzt.
result UrlContextResultItem (erforderlich)
Erforderlich. Die Ergebnisse des URL-Kontexts.
Felder
Die abgerufene URL.
Der Status des URL-Abrufs.
Mögliche Werte:
-
success -
error -
paywall -
unsafe
Gibt an, ob der URL-Kontext zu einem Fehler geführt hat.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
GoogleSearchResultStep
Schritt für Google-Suchergebnisse.
Keine Beschreibung vorhanden.
Immer auf "google_search_result" gesetzt.
result GoogleSearchResultItem (erforderlich)
Erforderlich. Die Ergebnisse der Google Suche.
Felder
Webinhalts-Snippet, das in eine Webseite oder eine App-Webview eingebettet werden kann.
Gibt an, ob bei der Google-Suche ein Fehler aufgetreten ist.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
McpServerToolResultStep
Schritt für das Ergebnis des MCPServer-Tools.
Keine Beschreibung vorhanden.
Immer auf "mcp_server_tool_result" gesetzt.
Name des Tools, das für diesen bestimmten Tool-Aufruf aufgerufen wird.
Der Name des verwendeten MCP-Servers.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
Die Ausgabe des MCP-Serveraufrufs. Kann einfacher Text oder Rich Content sein.
FileSearchResultStep
Schritt für Dateisuchergebnis.
Keine Beschreibung vorhanden.
Immer auf "file_search_result" gesetzt.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
GoogleMapsResultStep
Google Maps-Ergebnisschritt.
Keine Beschreibung vorhanden.
Immer auf "google_maps_result" gesetzt.
result GoogleMapsResultItem (erforderlich)
Keine Beschreibung vorhanden.
Felder
places GoogleMapsResultPlaces (optional)
Keine Beschreibung vorhanden.
Felder
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
review_snippets ReviewSnippet (optional)
Keine Beschreibung vorhanden.
Felder
Titel der Rezension.
Ein Link, der der Nutzerrezension auf Google Maps entspricht.
Die ID des Rezensions-Snippets.
Keine Beschreibung vorhanden.
Erforderlich. ID, die mit der ID aus dem Funktionsaufrufblock übereinstimmen muss.
Ein Signatur-Hash für die Backend-Validierung.
Das event_id-Token, das zum Fortsetzen des Interaktionsstreams ab diesem Ereignis verwendet werden soll.
StepDelta
Keine Beschreibung vorhanden.
Immer auf "step.delta" gesetzt.
Keine Beschreibung vorhanden.
delta StepDeltaData (erforderlich)
Keine Beschreibung vorhanden.
Mögliche Typen
Polymorpher Diskriminator: type
TextDelta
Keine Beschreibung vorhanden.
Immer auf "text" gesetzt.
Keine Beschreibung vorhanden.
ImageDelta
Keine Beschreibung vorhanden.
Immer auf "image" gesetzt.
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
Mögliche Werte:
-
image/png -
image/jpeg -
image/webp -
image/heic -
image/heif -
image/gif -
image/bmp -
image/tiff
resolution MediaResolution (optional)
Die Auflösung der Media.
Mögliche Werte:
-
low -
medium -
high -
ultra_high
AudioDelta
Keine Beschreibung vorhanden.
Immer auf "audio" gesetzt.
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
Mögliche Werte:
-
audio/wav -
audio/mp3 -
audio/aiff -
audio/aac -
audio/ogg -
audio/flac -
audio/mpeg -
audio/m4a -
audio/l16 -
audio/opus -
audio/alaw -
audio/mulaw
Verworfen. Verwenden Sie stattdessen „sample_rate“. Der Wert wird ignoriert.
Die Abtastrate des Audiosignals.
Die Anzahl der Audiokanäle.
DocumentDelta
Keine Beschreibung vorhanden.
Immer auf "document" gesetzt.
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
Mögliche Werte:
-
application/pdf
VideoDelta
Keine Beschreibung vorhanden.
Immer auf "video" gesetzt.
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
Keine Beschreibung vorhanden.
Mögliche Werte:
-
video/mp4 -
video/mpeg -
video/mpg -
video/mov -
video/avi -
video/x-flv -
video/webm -
video/wmv -
video/3gpp
resolution MediaResolution (optional)
Die Auflösung der Media.
Mögliche Werte:
-
low -
medium -
high -
ultra_high
ThoughtSummaryDelta
Keine Beschreibung vorhanden.
Immer auf "thought_summary" gesetzt.
content ThoughtSummaryContent (optional)
Ein neues Zusammenfassungselement, das dem Gedanken hinzugefügt werden soll.
Mögliche Typen
Polymorpher Diskriminator: type
TextContent
Ein Textinhaltsblock.
Keine Beschreibung vorhanden.
Immer auf "text" gesetzt.
Erforderlich. Der Textinhalt.
annotations Annotation (optional)
Quellenangaben für modellgenerierte Inhalte.
Mögliche Typen
Polymorpher Diskriminator: type
UrlCitation
Eine URL-Zitationsanmerkung.
Keine Beschreibung vorhanden.
Immer auf "url_citation" gesetzt.
Die URL.
Der Titel der URL.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
FileCitation
Eine Dateizitationsanmerkung.
Keine Beschreibung vorhanden.
Immer auf "file_citation" gesetzt.
Der URI der Datei.
Der Name der Datei.
Die Quelle, die einem Teil des Texts zugeordnet ist.
Vom Nutzer bereitgestellte Metadaten zum abgerufenen Kontext.
Seitenzahl des zitierten Dokuments, falls zutreffend.
Media-ID bei Bildquellenangaben, falls zutreffend.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
PlaceCitation
Eine Anmerkung mit einer Ortsangabe.
Keine Beschreibung vorhanden.
Immer auf "place_citation" gesetzt.
Die ID des Orts im Format „places/{place_id}“.
Titel des Orts.
URI-Referenz des Orts.
review_snippets ReviewSnippet (optional)
Ausschnitte aus Rezensionen, die zum Generieren von Antworten zu den Funktionen eines bestimmten Orts in Google Maps verwendet werden.
Felder
Titel der Rezension.
Ein Link, der der Nutzerrezension auf Google Maps entspricht.
Die ID des Rezensions-Snippets.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
ImageContent
Ein Inhaltsblock mit einem Bild.
Keine Beschreibung vorhanden.
Immer auf "image" gesetzt.
Der Bildinhalt.
Der URI des Bildes.
Der MIME-Typ des Bildes.
Mögliche Werte:
-
image/png -
image/jpeg -
image/webp -
image/heic -
image/heif -
image/gif -
image/bmp -
image/tiff
resolution MediaResolution (optional)
Die Auflösung der Media.
Mögliche Werte:
-
low -
medium -
high -
ultra_high
ThoughtSignatureDelta
Keine Beschreibung vorhanden.
Immer auf "thought_signature" gesetzt.
Signatur, die mit der Backend-Quelle übereinstimmen muss, damit sie Teil der Generierung ist.
TextAnnotationDelta
Keine Beschreibung vorhanden.
Immer auf "text_annotation_delta" gesetzt.
annotations Annotation (optional)
Quellenangaben für modellgenerierte Inhalte.
Mögliche Typen
Polymorpher Diskriminator: type
UrlCitation
Eine URL-Zitationsanmerkung.
Keine Beschreibung vorhanden.
Immer auf "url_citation" gesetzt.
Die URL.
Der Titel der URL.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
FileCitation
Eine Dateizitationsanmerkung.
Keine Beschreibung vorhanden.
Immer auf "file_citation" gesetzt.
Der URI der Datei.
Der Name der Datei.
Die Quelle, die einem Teil des Texts zugeordnet ist.
Vom Nutzer bereitgestellte Metadaten zum abgerufenen Kontext.
Seitenzahl des zitierten Dokuments, falls zutreffend.
Media-ID bei Bildquellenangaben, falls zutreffend.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
PlaceCitation
Eine Anmerkung mit einer Ortsangabe.
Keine Beschreibung vorhanden.
Immer auf "place_citation" gesetzt.
Die ID des Orts im Format „places/{place_id}“.
Titel des Orts.
URI-Referenz des Orts.
review_snippets ReviewSnippet (optional)
Ausschnitte aus Rezensionen, die zum Generieren von Antworten zu den Funktionen eines bestimmten Orts in Google Maps verwendet werden.
Felder
Titel der Rezension.
Ein Link, der der Nutzerrezension auf Google Maps entspricht.
Die ID des Rezensions-Snippets.
Beginn des Antwortsegments, das dieser Quelle zugeordnet wird. Der Index gibt den Beginn des Segments an, gemessen in Byte.
Ende des zugeordneten Segments (ausschließlich).
ArgumentsDelta
Keine Beschreibung vorhanden.
Immer auf "arguments_delta" gesetzt.
Keine Beschreibung vorhanden.
Das event_id-Token, das zum Fortsetzen des Interaktionsstreams ab diesem Ereignis verwendet werden soll.
StepStop
Keine Beschreibung vorhanden.
Immer auf "step.stop" gesetzt.
Keine Beschreibung vorhanden.
Das event_id-Token, das zum Fortsetzen des Interaktionsstreams ab diesem Ereignis verwendet werden soll.
Beispiele
Interaktion erstellt
{ "event_type": "interaction.created", "interaction": { "id": "v1_ChdXS0l4YWZXTk9xbk0xZThQczhEcmlROBIXV0tJeGFmV05PcW5NMWU4UHM4RHJpUTg", "model": "gemini-3-flash-preview", "status": "in_progress", "created": "2025-12-04T15:01:45Z", "updated": "2025-12-04T15:01:45Z" }, "event_id": "evt_123" }
Interaktion abgeschlossen
{ "event_type": "interaction.completed", "interaction": { "id": "v1_ChdXS0l4YWZXTk9xbk0xZThQczhEcmlROBIXV0tJeGFmV05PcW5NMWU4UHM4RHJpUTg", "model": "gemini-3-flash-preview", "status": "completed", "created": "2025-12-04T15:01:45Z", "updated": "2025-12-04T15:01:45Z" }, "event_id": "evt_123" }
Aktualisierung des Interaktionsstatus
{ "event_type": "interaction.status_update", "interaction_id": "v1_ChdTMjQ0YWJ5TUF1TzcxZThQdjRpcnFRcxIXUzI0NGFieU1BdU83MWU4UHY0aXJxUXM", "status": "in_progress" }
Ereignis vom Typ „Fehler“
{ "event_type": "error", "error": { "message": "Failed to get completed interaction: Result not found.", "code": "not_found" } }
Schrittstart
{ "event_type": "step.start", "index": 0, "step": { "type": "model_output" } }
Schritt-Delta
{ "event_type": "step.delta", "index": 0, "delta": { "type": "text", "text": "Hello" } }
Schrittweise Beendigung
{ "event_type": "step.stop", "index": 0 }