API Generative Language
L'API Gemini consente agli sviluppatori di creare applicazioni di AI generativa utilizzando i modelli Gemini. Gemini è il nostro modello più avanzato, creato da zero per essere multimodale. È in grado di generalizzare e di comprendere, gestire e combinare senza problemi diversi tipi di informazioni, tra cui linguaggio, immagini, audio, video e codice. Puoi utilizzare l'API Gemini per casi d'uso come il ragionamento su testo e immagini, la generazione di contenuti, gli agenti di dialogo, i sistemi di riepilogo e classificazione e altro ancora.
- Risorsa REST: v1beta.batches
- Risorsa REST: v1beta.cachedContents
- Risorsa REST: v1beta.corpora
- Risorsa REST: v1beta.corpora.documents
- Risorsa REST: v1beta.corpora.documents.chunks
- Risorsa REST: v1beta.corpora.operations
- Risorsa REST: v1beta.corpora.permissions
- Risorsa REST: v1beta.dynamic
- Risorsa REST: v1beta.files
- Risorsa REST: v1beta.generatedFiles
- Risorsa REST: v1beta.generatedFiles.operations
- Risorsa REST: v1beta.media
- Risorsa REST: v1beta.models
- Risorsa REST: v1beta.models.operations
- Risorsa REST: v1beta.ragStores
- Risorsa REST: v1beta.ragStores.documents
- Risorsa REST: v1beta.ragStores.operations
- Risorsa REST: v1beta.ragStores.upload.operations
- Risorsa REST: v1beta.tunedModels
- Risorsa REST: v1beta.tunedModels.operations
- Risorsa REST: v1beta.tunedModels.permissions
Servizio: generativelanguage.googleapis.com
Per chiamare questo servizio, ti consigliamo di utilizzare le librerie client fornite da Google. Se la tua applicazione deve utilizzare le tue librerie per chiamare questo servizio, utilizza le seguenti informazioni quando effettui le richieste API.
Endpoint di servizio
Un endpoint di servizio è un URL di base che specifica l'indirizzo di rete di un servizio API. Un servizio potrebbe avere più endpoint di servizio. Questo servizio ha il seguente endpoint di servizio e tutti gli URI riportati di seguito sono relativi a questo endpoint di servizio:
https://generativelanguage.googleapis.com
Risorsa REST: v1beta.batches
Metodi | |
---|---|
cancel |
POST /v1beta/{name=batches/*}:cancel Avvia l'annullamento asincrono di un'operazione a lunga esecuzione. |
delete |
DELETE /v1beta/{name=batches/*} Elimina un'operazione a lunga esecuzione. |
get |
GET /v1beta/{name=batches/*} Recupera l'ultimo stato di un'operazione a lunga esecuzione. |
list |
GET /v1beta/{name=batches} Elenca le operazioni che corrispondono al filtro specificato nella richiesta. |
updateEmbedContentBatch |
PATCH /v1beta/{embedContentBatch.name=batches/*}:updateEmbedContentBatch Aggiorna un batch di richieste EmbedContent per l'elaborazione batch. |
updateGenerateContentBatch |
PATCH /v1beta/{generateContentBatch.name=batches/*}:updateGenerateContentBatch Aggiorna un batch di richieste GenerateContent per l'elaborazione batch. |
Risorsa REST: v1beta.cachedContents
Metodi | |
---|---|
create |
POST /v1beta/cachedContents Crea la risorsa CachedContent. |
delete |
DELETE /v1beta/{name=cachedContents/*} Elimina la risorsa CachedContent. |
get |
GET /v1beta/{name=cachedContents/*} Legge la risorsa CachedContent. |
list |
GET /v1beta/cachedContents Lists CachedContents. |
patch |
PATCH /v1beta/{cachedContent.name=cachedContents/*} Aggiorna la risorsa CachedContent (solo la scadenza è aggiornabile). |
Risorsa REST: v1beta.files
Metodi | |
---|---|
delete |
DELETE /v1beta/{name=files/*} Elimina File . |
get |
GET /v1beta/{name=files/*} Recupera i metadati per il File specificato. |
list |
GET /v1beta/files Elenca i metadati per File di proprietà del progetto richiedente. |
Risorsa REST: v1beta.media
Metodi | |
---|---|
upload |
POST /v1beta/{ragStoreName=ragStores/*}:uploadToRagStore POST /upload/v1beta/{ragStoreName=ragStores/*}:uploadToRagStore Carica i dati in un ragStore, li preelabora e li suddivide in blocchi prima di archiviarli in un documento ragStore. |
Risorsa REST: v1beta.models
Metodi | |
---|---|
asyncBatchEmbedContent |
POST /v1beta/{batch.model=models/*}:asyncBatchEmbedContent Mette in coda un batch di richieste EmbedContent per l'elaborazione batch. |
batchEmbedContents |
POST /v1beta/{model=models/*}:batchEmbedContents Genera più vettori di incorporamento dall'input Content , che consiste in un batch di stringhe rappresentate come oggetti EmbedContentRequest . |
batchEmbedText |
POST /v1beta/{model=models/*}:batchEmbedText Genera più embedding dal modello dato il testo di input in una chiamata sincrona. |
batchGenerateContent |
POST /v1beta/{batch.model=models/*}:batchGenerateContent Mette in coda un batch di richieste GenerateContent per l'elaborazione batch. |
countMessageTokens |
POST /v1beta/{model=models/*}:countMessageTokens Esegue il tokenizer di un modello su una stringa e restituisce il conteggio dei token. |
countTextTokens |
POST /v1beta/{model=models/*}:countTextTokens Esegue il tokenizer di un modello su un testo e restituisce il conteggio dei token. |
countTokens |
POST /v1beta/{model=models/*}:countTokens Esegue il tokenizer di un modello sull'input Content e restituisce il conteggio dei token. |
embedContent |
POST /v1beta/{model=models/*}:embedContent Genera un vettore di embedding di testo dall'input Content utilizzando il modello Gemini Embedding specificato. |
embedText |
POST /v1beta/{model=models/*}:embedText Genera un embedding dal modello dato un messaggio di input. |
generateContent |
POST /v1beta/{model=models/*}:generateContent Genera una risposta del modello dato un input GenerateContentRequest . |
generateMessage |
POST /v1beta/{model=models/*}:generateMessage Genera una risposta dal modello dato un input MessagePrompt . |
generateText |
POST /v1beta/{model=models/*}:generateText Genera una risposta dal modello dato un messaggio di input. |
get |
GET /v1beta/{name=models/*} Recupera informazioni su un Model specifico, ad esempio il numero di versione, i limiti dei token, i parametri e altri metadati. |
list |
GET /v1beta/models Elenca i Model disponibili tramite l'API Gemini. |
predict |
POST /v1beta/{model=models/*}:predict Esegue una richiesta di previsione. |
predictLongRunning |
POST /v1beta/{model=models/*}:predictLongRunning Come Predict, ma restituisce un'operazione a lunga esecuzione. |
streamGenerateContent |
POST /v1beta/{model=models/*}:streamGenerateContent Genera una risposta in streaming dal modello dato un input GenerateContentRequest . |