2.0 Flash
Unser neuestes multimodales Modell mit Funktionen der nächsten Generation und verbesserten Fähigkeiten
- Audio, Bilder, Video und Text eingeben – Text-, Bild- und Audioantworten erhalten
- Bietet Konversationsinteraktionen mit niedriger Latenz mit unserer Multimodal Live API
1.5 Flash
Unser ausgewogenstes multimodales Modell mit hoher Leistung für die meisten Aufgaben
- Audio, Bilder, Videos und Text eingeben und Textantworten erhalten
- Code generieren, Daten extrahieren, Text bearbeiten und mehr
- Am besten für Aufgaben geeignet, bei denen Leistung und Kosten ausgewogen sein müssen
Modellvarianten
Die Gemini API bietet verschiedene Modelle, die für bestimmte Anwendungsfälle optimiert sind. Hier eine kurze Übersicht über die verfügbaren Gemini-Varianten:
Modellvariante | Eingaben | Ausgabe | Optimiert für |
---|---|---|---|
Gemini 2.0 Flash
gemini-2.0-flash-exp |
Audio, Bilder, Videos und Text | Text, Bilder (demnächst) und Audio (demnächst) | Funktionen der nächsten Generation, Geschwindigkeit und multimodale Generierung für eine Vielzahl von Aufgaben |
Gemini 1.5 Flash
gemini-1.5-flash |
Audio, Bilder, Videos und Text | Text | Schnelle und vielseitige Leistung für eine Vielzahl von Aufgaben |
Gemini 1.5 Flash-8B
gemini-1.5-flash-8b |
Audio, Bilder, Videos und Text | Text | Aufgaben mit hohem Volumen und geringer Intelligenz |
Gemini 1.5 Pro
gemini-1.5-pro |
Audio, Bilder, Videos und Text | Text | Komplexe Denkaufgaben, die mehr Intelligenz erfordern |
(15. Februar 2025 eingestellt) Gemini 1.0 Pro
gemini-1.0-pro |
Text | Text | Aufgaben in natürlicher Sprache, Text- und Code-Chats in mehreren Schritten und Codegenerierung |
Texteinbettung
text-embedding-004 |
Text | Texteinbettungen | Verwandtschaft von Textstrings messen |
AQA
aqa |
Text | Text | Quellenbasierte Antworten auf Fragen bereitstellen |
(Experimentell) Gemini 2.0 Flash
Gemini 2.0 Flash bietet Funktionen der nächsten Generation und verbesserte Fähigkeiten, darunter eine höhere Geschwindigkeit, die Verwendung nativer Tools, die multimodale Generierung und ein Kontextfenster von 1 Million Tokens. Weitere Informationen zu Gemini 2.0 Flash finden Sie auf unserer Übersichtsseite.
In Google AI Studio ausprobieren
Modelldetails
Attribut | Beschreibung |
---|---|
: Modellcode | models/gemini-2.0-flash-exp |
– unterstützte Datentypen |
Eingaben Audio, Bilder, Video und Text Ausgabe Audio (demnächst), Bilder (demnächst) und Text |
[*] | Token limits
Eingabetoken-Limit 1.048.576 Tokenausgabelimit 8.192 |
[**] | – Geschwindigkeitslimits
|
-Funktionen |
Strukturierte Ausgaben Unterstützt Caching Nicht unterstützt Abstimmung Nicht unterstützt Funktionsaufrufe Unterstützt Codeausführung Unterstützt Suche Unterstützt Bildgenerierung Unterstützt Nutzung nativer Tools Unterstützt Audiogenerierung Unterstützt |
-Versionen |
|
Letzte Aktualisierung | Dezember 2024 |
Gemini 1.5 Flash
Gemini 1.5 Flash ist ein schnelles und vielseitiges multimodales Modell, das für eine Vielzahl von Aufgaben skaliert werden kann.
In Google AI Studio ausprobieren
Modelldetails
Attribut | Beschreibung |
---|---|
: Modellcode | models/gemini-1.5-flash |
– unterstützte Datentypen |
Eingaben Audio, Bilder, Video und Text Ausgabe Text |
[*] | Token limits
Eingabetoken-Limit 1.048.576 Tokenausgabelimit 8.192 |
Audio-/visuelle Spezifikationen |
Maximale Anzahl von Bildern pro Prompt 3.600 Maximale Videolänge 1 Stunde Maximale Audiolänge Ungefähr 9,5 Stunden |
[**] | -Taktrate
|
-Funktionen |
Systemanweisungen Unterstützt JSON-Modus Unterstützt JSON-Schema Unterstützt Anpassbare Sicherheitseinstellungen Unterstützt Caching Unterstützt Abstimmung Unterstützt Funktionsaufrufe Unterstützt Codeausführung Unterstützt Bidirektionales Streaming Nicht unterstützt |
-Versionen |
|
Letzte Aktualisierung | September 2024 |
Gemini 1.5 Flash-8B
Gemini 1.5 Flash-8B ist ein kleines Modell, das für Aufgaben mit geringerer Intelligenz entwickelt wurde.
In Google AI Studio ausprobieren
Modelldetails
Attribut | Beschreibung |
---|---|
: Modellcode | models/gemini-1.5-flash-8b |
– unterstützte Datentypen |
Eingaben Audio, Bilder, Video und Text Ausgabe Text |
[*] | Token limits
Eingabetoken-Limit 1.048.576 Tokenausgabelimit 8.192 |
Audio-/visuelle Spezifikationen |
Maximale Anzahl von Bildern pro Prompt 3.600 Maximale Videolänge 1 Stunde Maximale Audiolänge Ungefähr 9,5 Stunden |
[**] | – Geschwindigkeitslimits
|
-Funktionen |
Systemanweisungen Unterstützt JSON-Modus Unterstützt JSON-Schema Unterstützt Anpassbare Sicherheitseinstellungen Unterstützt Caching Unterstützt Abstimmung Unterstützt Funktionsaufrufe Unterstützt Codeausführung Unterstützt Bidirektionales Streaming Nicht unterstützt |
-Versionen |
|
Letzte Aktualisierung | Oktober 2024 |
Gemini 1.5 Pro,
Gemini 1.5 Pro ist ein mittelgroßes multimodales Modell, das für eine Vielzahl von Inferenzaufgaben optimiert ist. 1.5 Pro kann große Datenmengen gleichzeitig verarbeiten, darunter 2 Stunden Video, 19 Stunden Audio, Codebasen mit 60.000 Codezeilen oder 2.000 Seiten Text.
In Google AI Studio ausprobieren
Modelldetails
Attribut | Beschreibung |
---|---|
: Modellcode | models/gemini-1.5-pro |
– unterstützte Datentypen |
Eingaben Audio, Bilder, Video und Text Ausgabe Text |
[*] | Token limits
Eingabetoken-Limit 2.097.152 Tokenausgabelimit 8.192 |
Audio-/visuelle Spezifikationen |
Maximale Anzahl von Bildern pro Prompt 7.200 Maximale Videolänge 2 Stunden Maximale Audiolänge Etwa 19 Stunden |
[**] | – Geschwindigkeitslimits
|
-Funktionen |
Systemanweisungen Unterstützt JSON-Modus Unterstützt JSON-Schema Unterstützt Anpassbare Sicherheitseinstellungen Unterstützt Caching Unterstützt Abstimmung Nicht unterstützt Funktionsaufrufe Unterstützt Codeausführung Unterstützt Bidirektionales Streaming Nicht unterstützt |
-Versionen |
|
Letzte Aktualisierung | September 2024 |
(Eingestellt) Gemini 1.0 Pro
Gemini 1.0 Pro ist ein NLP-Modell, das Aufgaben wie wechselseitige Text- und Codechats sowie Codegenerierung verarbeitet.
In Google AI Studio ausprobieren
Modelldetails
Attribut | Beschreibung |
---|---|
: Modellcode | models/gemini-1.0-pro |
– unterstützte Datentypen |
Eingabe Text Ausgabe Text |
[**] | – Geschwindigkeitslimits
|
-Funktionen |
Systemanweisungen Nicht unterstützt JSON-Modus Nicht unterstützt JSON-Schema Nicht unterstützt Anpassbare Sicherheitseinstellungen Unterstützt Caching Nicht unterstützt Abstimmung Unterstützt Funktionsaufrufe Unterstützt Konfiguration von Funktionsaufrufen Nicht unterstützt Codeausführung Nicht unterstützt Bidirektionales Streaming Nicht unterstützt |
-Versionen |
|
Letzte Aktualisierung | Februar 2024 |
Text- und Einbettung
Texteinbettung
Text-Embeddings werden verwendet, um die Ähnlichkeit von Strings zu messen. Sie werden in vielen KI-Anwendungen eingesetzt.
text-embedding-004
erzielt bei den standardmäßigen MTEB-Embedding-Benchmarks eine höhere Abrufleistung und übertrifft bestehende Modelle mit vergleichbaren Dimensionen.
Modelldetails
Attribut | Beschreibung |
---|---|
: Modellcode |
Gemini API
|
– unterstützte Datentypen |
Eingabe Text Ausgabe Texteinbettungen |
[*] | Token limits
Eingabetoken-Limit 2.048 Größe der Ausgabedimension 768 |
[**] | -Taktrate1.500 Anfragen pro Minute |
anpassbare Sicherheitseinstellungen | Nicht unterstützt |
Letzte Aktualisierung | April 2024 |
Einbettung
Mit dem Einbettungsmodell können Sie Texteinbettungen für Eingabetext generieren.
Das Einbettungsmodell ist für die Erstellung von Einbettungen mit 768 Dimensionen für Texte mit bis zu 2.048 Tokens optimiert.
Details zum Einbettungsmodell
Attribut | Beschreibung |
---|---|
: Modellcode |
models/embedding-001
|
– unterstützte Datentypen |
Eingabe Text Ausgabe Texteinbettungen |
[*] | Token limits
Eingabetoken-Limit 2.048 Größe der Ausgabedimension 768 |
[**] | -Taktrate1.500 Anfragen pro Minute |
anpassbare Sicherheitseinstellungen | Nicht unterstützt |
Letzte Aktualisierung | Dezember 2023 |
AQA
Sie können das AQA-Modell verwenden, um Aufgaben im Zusammenhang mit der Attributionsbasierten Frage-Antwort-Technologie (Attributed Question-Answering, AQA) für ein Dokument, einen Korpus oder eine Reihe von Textpassagen auszuführen. Das AQA-Modell gibt Antworten auf Fragen zurück, die auf den bereitgestellten Quellen basieren, und schätzt die Wahrscheinlichkeit, dass eine Frage beantwortet werden kann.
Modelldetails
Attribut | Beschreibung |
---|---|
: Modellcode | models/aqa |
– unterstützte Datentypen |
Eingabe Text Ausgabe Text |
Unterstützte Sprache | Englisch |
[*] | Token limits
Eingabetoken-Limit 7.168 Tokenausgabelimit 1.024 |
[**] | -Taktrate1.500 Anfragen pro Minute |
anpassbare Sicherheitseinstellungen | Unterstützt |
Letzte Aktualisierung | Dezember 2023 |
In den Beispielen erfahren Sie mehr über die Möglichkeiten dieser Modellvarianten.
[*] Ein Token entspricht etwa 4 Zeichen bei Gemini-Modellen. 100 Tokens entsprechen etwa 60–80 englischen Wörtern.
[**] RPM: Anfragen pro Minute
TPM: Tokens pro Minute
RPD: Anfragen pro Tag
TPD: Tokens pro Tag
Aufgrund von Kapazitätsbeschränkungen sind die angegebenen maximalen Ratenlimits nicht garantiert.
Muster für Modellversionsnamen
Gemini-Modelle sind entweder als Vorabversion oder als stabile Version verfügbar. In Ihrem Code können Sie eines der folgenden Formate für Modellnamen verwenden, um anzugeben, welches Modell und welche Version Sie verwenden möchten.
Latest (Aktuell): Verweist auf die neueste Version des Modells für eine bestimmte Generation und Variante. Das zugrunde liegende Modell wird regelmäßig aktualisiert und kann eine Vorabversion sein. Dieser Alias sollte nur für explorative Tests von Apps und Prototypen verwendet werden.
Verwenden Sie das folgende Muster, um die neueste Version anzugeben:
<model>-<generation>-<variation>-latest
. Beispiel:gemini-1.0-pro-latest
Latest stable (Neueste stabile Version): Verweist auf die neueste stabile Version, die für die angegebene Modellgeneration und ‑variante veröffentlicht wurde.
Verwenden Sie das folgende Muster, um die neueste stabile Version anzugeben:
<model>-<generation>-<variation>
. Beispiel:gemini-1.0-pro
.Stabil:Verweist auf ein bestimmtes stabiles Modell. Stabile Modelle ändern sich nicht. Die meisten Produktions-Apps sollten ein bestimmtes stabiles Modell verwenden.
Verwenden Sie das folgende Muster, um eine stabile Version anzugeben:
<model>-<generation>-<variation>-<version>
. Beispiel:gemini-1.0-pro-001
Experimentell:Verweist auf ein experimentelles Modell, das in der Vorabversion verfügbar ist, wie in den Nutzungsbedingungen definiert. Es ist nicht für die Produktion vorgesehen. Wir veröffentlichen experimentelle Modelle, um Feedback zu erhalten, Entwicklern schnell unsere neuesten Updates zur Verfügung zu stellen und das Tempo der Innovationen bei Google zu verdeutlichen. Die Erkenntnisse aus unseren experimentellen Veröffentlichungen fließen in die Art und Weise ein, wie wir Modelle für weitere Nutzersegmente veröffentlichen. Ein experimentelles Modell kann ohne vorherige Ankündigung durch ein anderes ersetzt werden. Wir können nicht garantieren, dass ein experimentelles Modell in Zukunft ein stabiles Modell wird.
Verwenden Sie das folgende Muster, um eine experimentelle Version anzugeben:
<model>-<generation>-<variation>-<version>
. Beispiel:gemini-exp-1121
Verfügbare Sprachen
Gemini-Modelle sind für die folgenden Sprachen trainiert:
- Arabisch (
ar
) - Bengalisch (
bn
) - Bulgarisch (
bg
) - Chinesisch, vereinfacht und traditionell (
zh
) - Kroatisch (
hr
) - Tschechisch (
cs
) - Dänisch (
da
) - Niederländisch (
nl
) - Englisch (
en
) - Estnisch (
et
) - Finnisch (
fi
) - Französisch (
fr
) - Deutsch (
de
) - Griechisch (
el
) - Hebräisch (
iw
) - Hindi (
hi
) - Ungarisch (
hu
) - Indonesisch (
id
) - Italienisch (
it
) - Japanisch (
ja
) - Koreanisch (
ko
) - Lettisch (
lv
) - Litauisch (
lt
) - Norwegisch (
no
) - Polnisch (
pl
) - Portugiesisch (
pt
) - Rumänisch (
ro
) - Russisch (
ru
) - Serbisch (
sr
) - Slowakisch (
sk
) - Slowenisch (
sl
) - Spanisch (
es
) - Swahili (
sw
) - Schwedisch (
sv
) - Thailändisch (
th
) - Türkisch (
tr
) - Ukrainisch (
uk
) - Vietnamesisch (
vi
)