Gemini-Modelle

Gemini ist eine Familie von generativen KI-Modellen, mit denen Entwickler Inhalte generieren und Probleme lösen können. Diese Modelle sind darauf ausgelegt, sowohl Text als auch Bilder als Eingabe zu verarbeiten. Dieser Leitfaden enthält Informationen zu jeder Modellvariante, damit Sie entscheiden können, welche für Ihren Anwendungsfall am besten geeignet ist.

Im Folgenden finden Sie eine kurze Zusammenfassung der verfügbaren Modelle und ihrer Funktionen:

Modelle Eingabe Ausgabe
Gemini
  • Gemini 1.5 Pro (nur Vorschau)
Text und Bilder Text
  • Gemini 1.0 Pro
Text Text
  • Gemini 1.0 Pro Vision
Text und Bilder Text
Einbettungen
  • Einbettung
Text Texteinbettungen
Abrufen
  • AQA
Text Text

Sicherheit und bestimmungsgemäße Verwendung

Generative AI-Modelle sind leistungsstarke Tools, die jedoch nicht ohne ihre Einschränkungen funktionieren. Ihre Vielseitigkeit und Anwendbarkeit können manchmal zu unerwarteten Ausgaben führen, z. B. ungenaue, verzerrte oder anstößige Ergebnisse. Die Nachverarbeitung und eine strenge manuelle Bewertung sind unerlässlich, um das Risiko von Schäden durch solche Ergebnisse zu begrenzen. Weitere Vorschläge zur sicheren Verwendung finden Sie in den Sicherheitsempfehlungen.

Die von der Gemini API bereitgestellten Modelle können für eine Vielzahl von Anwendungen für Generative AI und Natural Language Processing (NLP) verwendet werden. Die Verwendung dieser Funktionen ist nur über die Gemini API oder die Google AI Studio-Web-App verfügbar. Ihre Verwendung der Gemini API unterliegt außerdem der Richtlinie zur unzulässigen Nutzung von Generative AI und den Nutzungsbedingungen der Gemini API.

Modellgrößen

In der folgenden Tabelle sehen Sie die verfügbaren Größen und ihre Bedeutung im Verhältnis zueinander.

Modellgröße Beschreibung Dienste
Gemini 1.0 Pro Eine Modellgröße, bei der Leistungsfähigkeit und Effizienz im Gleichgewicht sind.
  • Text
  • Chat

Modellversionen

Gemini-Modelle sind entweder als Vorabversion oder als stabile Version verfügbar. In Ihrem Code können Sie eines der folgenden Modellnamenformate verwenden, um anzugeben, welches Modell und welche Version Sie verwenden möchten.

  • Neueste:Verweist auf die neueste Version des Modells für eine bestimmte Generation und Variante. Das zugrunde liegende Modell wird regelmäßig aktualisiert und kann eine Vorabversion sein. Dieser Alias sollte nur für Apps und Prototypen verwendet werden, die explorative Tests durchführen.

    Verwenden Sie das folgende Muster, um die neueste Version anzugeben: <model>-<generation>-<variation>-latest. Beispiel: gemini-1.0-pro-latest

  • Neueste stabile Version: Verweist auf die neueste stabile Version, die für die angegebene Modellgenerierung und -variante veröffentlicht wurde.

    Verwenden Sie das folgende Muster, um die neueste stabile Version anzugeben: <model>-<generation>-<variation>. Beispiel: gemini-1.0-pro.

  • Stabil:Verweist auf ein bestimmtes stabiles Modell. Stabile Modelle ändern sich nicht. Die meisten Produktions-Apps sollten ein bestimmtes stabiles Modell verwenden.

    Verwenden Sie das folgende Muster, um eine stabile Version anzugeben: <model>-<generation>-<variation>-<version>. Beispiel: gemini-1.0-pro-001

Informationen zu Modellen mit einer stabilen Version finden Sie in der Zeile „Modellnamen“ unter Modellvarianten.

Modellvarianten

Die Gemini API bietet verschiedene Modelle, die für bestimmte Anwendungsfälle optimiert sind. In der folgenden Tabelle werden die jeweiligen Attribute beschrieben.

Variation Attribut Beschreibung
Gemini 1.5 Pro (nur Vorschau) Letzte Aktualisierung des Modells April 2024
Modellcode models/gemini-1.5-pro-latest
Modellfunktionen
  • Eingabe: Audio, Bild, Text
  • Ausgabe: Text
  • Optimiert für Sprachaufgaben wie:
    • Codegenerierung
    • Textgenerierung
    • Textbearbeitung
    • Probleme lösen
    • Empfehlungsgenerierung
    • Informationsextraktion
    • Datenextraktion oder -generierung
    • KI-Agent
  • Kann null, eine und wenige Aufgaben erledigen.
Unterstützte Generierungsmethoden generateContent
Limit für Eingabetoken 1048576
Tokenausgabelimit 8.192
Modellsicherheit Automatisch angewendete Sicherheitseinstellungen, die von Entwicklern angepasst werden können. Weitere Informationen finden Sie unter Sicherheitseinstellungen.
Ratenbegrenzung 2 Abfragen pro Minute, 1.000 Abfragen pro Tag[1]
Gemini Pro Letzte Aktualisierung des Modells Februar 2024
Modellcode models/gemini-pro
Modellfunktionen
  • Eingabe: Text
  • Ausgabe: Text
  • Generiert Text.
  • Kann ein Unterhaltungsformat mit mehreren Schritten verarbeiten.
  • Kann null, eine und wenige Aufgaben erledigen.
Unterstützte Generierungsmethoden generateContent
Limit für Eingabetoken 30.720
Tokenausgabelimit 2.048
Modellsicherheit Automatisch angewendete Sicherheitseinstellungen, die von Entwicklern angepasst werden können. Weitere Informationen finden Sie unter Sicherheitseinstellungen.
Ratenbegrenzung 60 Anfragen pro Minute [1]
Modellnamen
  • Neueste Version: gemini-1.0-pro-latest
  • Neueste stabile Version: gemini-1.0-pro
  • Stabile Versionen:
    • gemini-1.0-pro-001
Gemini 1.0 Pro Vision Letzte Aktualisierung des Modells Dezember 2023
Modellcode models/gemini-pro-vision
Modellfunktionen
  • Eingabe: Text und Bilder
  • Ausgabe: Text
  • Multimodale Eingaben, Text und Bilder sind möglich.
  • Kann null, eine und wenige Aufgaben erledigen.
Unterstützte Generierungsmethoden generateContent
Limit für Eingabetoken 12.288
Tokenausgabelimit 4.096
Modellsicherheit Automatisch angewendete Sicherheitseinstellungen, die von Entwicklern angepasst werden können. Weitere Informationen finden Sie unter Sicherheitseinstellungen.
Ratenbegrenzung 60 Anfragen pro Minute [1]
Einbettung Letzte Aktualisierung des Modells Dezember 2023
Modellcode models/embedding-001
Modellfunktionen
  • Eingabe: Text
  • Ausgabe: Text
  • Generiert Texteinbettungen für den Eingabetext.
  • Optimiert für das Erstellen von Einbettungen für Text mit bis zu 2.048 Tokens.
Unterstützte Generierungsmethoden embedContent
Modellsicherheit Sicherheitseinstellungen sind nicht anpassbar.
Ratenbegrenzung 1.500 Anfragen pro Minute [1]
Texteinbettung Letzte Aktualisierung des Modells April 2024
Modellcode models/text-embedding-004 (text-embedding-preview-0409 in Vertex AI)
Modellfunktionen
  • Eingabe: Text
  • Ausgabe: Text
  • Generiert Texteinbettungen für den Eingabetext.
  • Elastische Einbettungsgrößen unter 768 werden unterstützt.
Unterstützte Generierungsmethoden embedContent
Modellsicherheit Sicherheitseinstellungen sind nicht anpassbar.
Ratenbegrenzung 1.500 Anfragen pro Minute [1]
AQA Letzte Aktualisierung des Modells Dezember 2023
Modellcode models/aqa
Modellfunktionen
  • Eingabe: Text
  • Ausgabe: Text
  • Modell, das Antworten auf zugeordnete Fragen durchführt.
  • Das Modell wurde so trainiert, dass es Antworten auf Fragen zurückgibt, die auf bereitgestellten Quellen basieren, sowie die Schätzung der beantwortbaren Wahrscheinlichkeit.
Unterstützte Generierungsmethoden generateAnswer
Unterstützte Sprachen Englisch
Limit für Eingabetoken 7168
Tokenausgabelimit 1.024
Modellsicherheit Automatisch angewendete Sicherheitseinstellungen, die von Entwicklern angepasst werden können. Weitere Informationen finden Sie unter Sicherheitseinstellungen.
Ratenbegrenzung 60 Anfragen pro Minute [1]

In den Beispielen erfahren Sie mehr über die Funktionen dieser Modellvarianten.

Modellmetadaten

Verwenden Sie die ModelService API, um zusätzliche Metadaten zu den neuesten Modellen abzurufen, z. B. Limits für Eingabe- und Ausgabetokens. Die folgende Tabelle enthält die Metadaten für die Gemini Pro-Modellvariante.

Attribut Wert
Anzeigename Gemini 1.0 Pro
Modellcode models/gemini-1.0-pro
Beschreibung Modell, auf das Textgenerierung ausgerichtet ist
Unterstützte Generierungsmethoden generateContent
Temperatur 0,9
top_p 1
top_k 1

Modellattribute

In der folgenden Tabelle werden die Attribute der Gemini-Modelle beschrieben, die allen Modellvarianten gemeinsam sind.

Attribut Beschreibung
Trainingsdaten Gemini: Wissensschluss ist Anfang 2023. Das Wissen über Ereignisse nach diesem Zeitraum ist begrenzt.
Unterstützte Sprachen Verfügbare Sprachen
Konfigurierbare Modellparameter
  • Top P
  • Top k
  • Temperatur
  • Sequenz stoppen
  • Maximale Ausgabelänge
  • Anzahl der Antwortkandidaten

[1] Aufgrund von Kapazitätseinschränkungen sind angegebene maximale Ratenbegrenzungen nicht garantiert.

Informationen zu den einzelnen Parametern finden Sie im Abschnitt Modellparameter der Anleitung zur Einführung in LLMs.

Nächste Schritte