Ce document offre une vue d'ensemble des différences entre les versions v1
et v1beta
de l'API Gemini.
- v1: version stable de l'API. Les fonctionnalités de la version stable sont entièrement prises en charge pendant toute la durée de vie de la version majeure. En cas de modification importante, la prochaine version majeure de l'API sera créée et la version existante sera abandonnée après un délai raisonnable. Des modifications non destructives peuvent être apportées à l'API sans modifier la version majeure.
- v1beta: cette version inclut des fonctionnalités en accès anticipé qui peuvent être en cours de développement et est sujette à des modifications rapides et destructives. Il n'est pas non plus garanti que les fonctionnalités de la version bêta seront transférées vers la version stable. En raison de cette instabilité, nous vous conseillons de ne pas lancer d'applications de production avec cette version.
Fonctionnalité | v1 | v1beta |
---|---|---|
Générer du contenu : saisie en texte uniquement | ||
Générer du contenu : entrée de texte et d'images | ||
Générer du contenu : sortie textuelle | ||
Générer du contenu : conversations multitours (chat) | ||
Générer du contenu : appels de fonction | ||
Générer du contenu : streaming | ||
Intégrer du contenu : saisie de texte uniquement | ||
Générer une réponse | ||
Récupérateur sémantique |
- : compatible
- : ne sera jamais pris en charge
Configurer la version de l'API dans un SDK
Le SDK de l'API Gemini est défini par défaut sur v1beta
, mais vous pouvez choisir d'utiliser v1
à la place en définissant la version de l'API, comme indiqué dans l'exemple de code suivant:
Python
Le SDK Python, google.generativeai
, utilise v1beta
et ne fournit pas de méthode pour changer de version d'API.
La bibliothèque cliente Python de bas niveau, google.ai.generativelanguage
, expose d'autres versions en tant que modules distincts: google.ai.generativelanguage_v1
et google.ai.generativelanguage_v1beta
. La valeur par défaut est v1beta
.
import google.ai.generativelanguage_v1 as glm
client = glm.GenerativeServiceClient(
client_options=dict(api_key=YOUR_API_KEY))
response = client.generate_content({
"model": "models/gemini-1.5-flash",
"contents": [ {"parts": [ {"text": "Explain how AI works"}]}]
})
print(type(response).to_dict(response))
Node.js
const { GoogleGenerativeAI } = require("@google/generative-ai");
const genAI = new GoogleGenerativeAI("YOUR_API_KEY");
const model = genAI.getGenerativeModel({ model: 'gemini-1.5-flash' }, { apiVersion: 'v1' });
const prompt = "Explain how AI works";
const result = await model.generateContent(prompt);
console.log(result.response.text());
REST
curl "https://generativelanguage.googleapis.com/v1/models/gemini-1.5-flash:generateContent?key=YOUR_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts":[{"text": "Write a story about a magic backpack."}]
}]
}'