API Generative Language
A API Gemini permite que os desenvolvedores criem aplicativos de IA generativa usando modelos do Gemini. O Gemini é nosso modelo mais avançado, criado desde o início para ser multimodal. Ele pode generalizar, entender, operar e combinar diferentes tipos de informações, incluindo idiomas, imagens, áudio, vídeo e código. Você pode usar a API Gemini para casos de uso como raciocínio em texto e imagens, geração de conteúdo, agentes de diálogo, sistemas de resumo e classificação e muito mais.
- Recurso REST: v1beta.batches
- Recurso REST: v1beta.cachedContents
- Recurso REST: v1beta.corpora
- Recurso REST: v1beta.corpora.documents
- Recurso REST: v1beta.corpora.documents.chunks
- Recurso REST: v1beta.corpora.operations
- Recurso REST: v1beta.corpora.permissions
- Recurso REST: v1beta.dynamic
- Recurso REST: v1beta.files
- Recurso REST: v1beta.generatedFiles
- Recurso REST: v1beta.generatedFiles.operations
- Recurso REST: v1beta.media
- Recurso REST: v1beta.models
- Recurso REST: v1beta.models.operations
- Recurso REST: v1beta.ragStores
- Recurso REST: v1beta.ragStores.documents
- Recurso REST: v1beta.ragStores.operations
- Recurso REST: v1beta.ragStores.upload.operations
- Recurso REST: v1beta.tunedModels
- Recurso REST: v1beta.tunedModels.operations
- Recurso REST: v1beta.tunedModels.permissions
Serviço: generativelanguage.googleapis.com
Para chamar esse serviço, recomendamos que você use as bibliotecas de cliente fornecidas pelo Google. Caso o aplicativo precise usar bibliotecas próprias para chamar esse serviço, use as informações a seguir quando fizer as solicitações da API.
Endpoint de serviço
Um endpoint de serviço é um URL de base que especifica o endereço de rede de um serviço de API. Um serviço pode ter vários endpoints de serviço. Este serviço tem o endpoint a seguir e todos os URIs abaixo são relativos a ele:
https://generativelanguage.googleapis.com
Recurso REST: v1beta.batches
Métodos | |
---|---|
cancel |
POST /v1beta/{name=batches/*}:cancel Inicia o cancelamento assíncrono em uma operação de longa duração. |
delete |
DELETE /v1beta/{name=batches/*} Exclui uma operação de longa duração. |
get |
GET /v1beta/{name=batches/*} Recebe o estado mais recente de uma operação de longa duração. |
list |
GET /v1beta/{name=batches} Lista as operações correspondentes ao filtro especificado na solicitação. |
updateEmbedContentBatch |
PATCH /v1beta/{embedContentBatch.name=batches/*}:updateEmbedContentBatch Atualiza um lote de solicitações EmbedContent para processamento em lote. |
updateGenerateContentBatch |
PATCH /v1beta/{generateContentBatch.name=batches/*}:updateGenerateContentBatch Atualiza um lote de solicitações GenerateContent para processamento em lote. |
Recurso REST: v1beta.cachedContents
Métodos | |
---|---|
create |
POST /v1beta/cachedContents Cria um recurso CachedContent. |
delete |
DELETE /v1beta/{name=cachedContents/*} Exclui o recurso CachedContent. |
get |
GET /v1beta/{name=cachedContents/*} Lê o recurso CachedContent. |
list |
GET /v1beta/cachedContents Lista CachedContents. |
patch |
PATCH /v1beta/{cachedContent.name=cachedContents/*} Atualiza o recurso CachedContent. Somente o prazo de validade pode ser atualizado. |
Recurso REST: v1beta.files
Métodos | |
---|---|
delete |
DELETE /v1beta/{name=files/*} Exclui o File . |
get |
GET /v1beta/{name=files/*} Recebe os metadados do File especificado. |
list |
GET /v1beta/files Lista os metadados dos File s pertencentes ao projeto solicitante. |
Recurso REST: v1beta.media
Métodos | |
---|---|
upload |
POST /v1beta/{ragStoreName=ragStores/*}:uploadToRagStore POST /upload/v1beta/{ragStoreName=ragStores/*}:uploadToRagStore Faz upload de dados para um ragStore, pré-processa e divide em partes antes de armazenar em um documento do RagStore. |
Recurso REST: v1beta.models
Métodos | |
---|---|
asyncBatchEmbedContent |
POST /v1beta/{batch.model=models/*}:asyncBatchEmbedContent Enfileira um lote de solicitações EmbedContent para processamento em lote. |
batchEmbedContents |
POST /v1beta/{model=models/*}:batchEmbedContents Gera vários vetores de embedding da entrada Content , que consiste em um lote de strings representadas como objetos EmbedContentRequest . |
batchEmbedText |
POST /v1beta/{model=models/*}:batchEmbedText Gera vários embeddings do modelo com base no texto de entrada em uma chamada síncrona. |
batchGenerateContent |
POST /v1beta/{batch.model=models/*}:batchGenerateContent Enfileira um lote de solicitações GenerateContent para processamento em lote. |
countMessageTokens |
POST /v1beta/{model=models/*}:countMessageTokens Executa o tokenizador de um modelo em uma string e retorna a contagem de tokens. |
countTextTokens |
POST /v1beta/{model=models/*}:countTextTokens Executa o tokenizador de um modelo em um texto e retorna a contagem de tokens. |
countTokens |
POST /v1beta/{model=models/*}:countTokens Executa o tokenizador de um modelo na entrada Content e retorna a contagem de tokens. |
embedContent |
POST /v1beta/{model=models/*}:embedContent Gera um vetor de embedding de texto da entrada Content usando o modelo de embedding do Gemini especificado. |
embedText |
POST /v1beta/{model=models/*}:embedText Gera um embedding do modelo com base em uma mensagem de entrada. |
generateContent |
POST /v1beta/{model=models/*}:generateContent Gera uma resposta do modelo com base em uma entrada GenerateContentRequest . |
generateMessage |
POST /v1beta/{model=models/*}:generateMessage Gera uma resposta do modelo com base em uma entrada MessagePrompt . |
generateText |
POST /v1beta/{model=models/*}:generateText Gera uma resposta do modelo com base em uma mensagem de entrada. |
get |
GET /v1beta/{name=models/*} Recebe informações sobre um Model específico, como número da versão, limites de token, parâmetros e outros metadados. |
list |
GET /v1beta/models Lista os Model s disponíveis na API Gemini. |
predict |
POST /v1beta/{model=models/*}:predict Executa uma solicitação de previsão. |
predictLongRunning |
POST /v1beta/{model=models/*}:predictLongRunning Igual a "Predict", mas retorna um LRO. |
streamGenerateContent |
POST /v1beta/{model=models/*}:streamGenerateContent Gera uma resposta transmitida do modelo com base em uma entrada GenerateContentRequest . |