Modelli Gemini

Gemini è una famiglia di modelli di IA generativa che consente agli sviluppatori di generare contenuti e Questi modelli sono progettati e addestrati per gestire testo e immagini come input. Questa guida fornisce informazioni su ogni variante di modello per aiutarti a decidere quale sia la più adatta al tuo caso d'uso.

Ecco un breve riepilogo dei modelli disponibili e delle loro funzionalità:

ottimizzabili Input Output
Gemini
  • Gemini 1.5 Pro (solo anteprima)
Testo e immagini Testo
  • Gemini 1.0 Pro
Testo Testo
  • Gemini 1.0 Pro Vision
Testo e immagini Testo
Incorporamenti
  • Incorporamento
Testo Incorporamenti di testo
Recupero
  • AQA
Testo Testo

Sicurezza e utilizzo previsto

I modelli di intelligenza artificiale generativa sono strumenti potenti, ma non sono privi di limitazioni. La loro versatilità e applicabilità a volte possono generare risultati imprevisti, ad esempio output imprecisi, distorti o offensivi. La post-elaborazione e la rigorosa valutazione manuale sono essenziali per limitare il rischio di danni derivanti da questo tipo di output. Consulta le indicazioni sulla sicurezza per ulteriori suggerimenti sull'utilizzo sicuro.

I modelli forniti dall'API Gemini possono essere utilizzati per un'ampia gamma di applicazioni di IA generativa e di elaborazione del linguaggio naturale (NLP). L'utilizzo di queste funzioni è disponibile solo tramite l'API Gemini o l'app web Google AI Studio. L'utilizzo dell'API Gemini è inoltre soggetto alle Norme relative all'uso vietato dell'IA generativa e ai Termini di servizio dell'API Gemini.

Dimensioni del modello

La seguente tabella mostra le dimensioni disponibili e il loro significato l'una rispetto all'altra.

Dimensione modello Descrizione Servizi
Gemini 1.0 Pro Una dimensione del modello che bilancia capacità ed efficienza.
  • testo
  • chat

Versioni modello

I modelli Gemini sono disponibili in versione anteprima o stabile. Nel codice, puoi utilizzare uno dei seguenti formati dei nomi dei modelli per specificare quale modello e versione vuoi utilizzare.

  • Più recente: rimanda alla versione all'avanguardia del modello per una generazione e una variazione specificate. Il modello sottostante viene aggiornato regolarmente e potrebbe essere una versione in anteprima. Solo le app e i prototipi di test esplorativo devono usare questo alias.

    Per specificare la versione più recente, utilizza il seguente pattern: <model>-<generation>-<variation>-latest. Ad esempio, gemini-1.0-pro-latest.

  • Stabile più recente: rimanda alla versione stabile più recente rilasciata per la generazione e la variazione del modello specificate.

    Per specificare l'ultima versione stabile, utilizza il seguente pattern: <model>-<generation>-<variation>. Ad esempio, gemini-1.0-pro.

  • Stabile: rimanda a un modello stabile specifico. I modelli stabili non cambiano. La maggior parte delle app di produzione dovrebbe utilizzare un modello stabile specifico.

    Per specificare una versione stabile, utilizza il seguente pattern: <model>-<generation>-<variation>-<version>. Ad esempio, gemini-1.0-pro-001.

Per i modelli che hanno una versione stabile, vedi la riga "Nomi dei modelli" per il modello in Varianti del modello.

Varianti del modello

L'API Gemini offre diversi modelli ottimizzati per casi d'uso specifici. La seguente tabella descrive gli attributi di ognuno.

Variazione Attributo Descrizione
Gemini 1.5 Pro (solo anteprima) Ultimo aggiornamento del modello Aprile 2024
Codice modello models/gemini-1.5-pro-latest
Capacità del modello
  • Input: audio, immagine, testo
  • Output: testo
  • Ottimizzato per attività relative alle lingue come:
    • Generazione del codice
    • Generazione di testo
    • Modifica del testo
    • Risoluzione dei problemi
    • Generazione di suggerimenti
    • Estrazione di informazioni
    • Estrazione o generazione di dati
    • Agente IA
  • Può gestire attività zero, uno e few-shot.
Metodi di generazione supportati generateContent
Limite token di input 1048576
Limite di token di output 8192
Sicurezza del modello Impostazioni di sicurezza applicate automaticamente e regolabili dagli sviluppatori. Per informazioni dettagliate, consulta l'argomento Impostazioni di sicurezza.
Limite di frequenza 2 query al minuto, 1000 query al giorno[1]
Gemini Pro Ultimo aggiornamento del modello February 2024
Codice modello models/gemini-pro
Capacità del modello
  • Input: testo
  • Output: testo
  • Genera il testo.
  • È in grado di gestire il formato conversazionale in più passaggi.
  • Può gestire attività zero, uno e few-shot.
Metodi di generazione supportati generateContent
Limite token di input 30720
Limite di token di output 2048
Sicurezza del modello Impostazioni di sicurezza applicate automaticamente e regolabili dagli sviluppatori. Per informazioni dettagliate, consulta l'argomento Impostazioni di sicurezza.
Limite di frequenza 60 richieste al minuto[1]
Nomi dei modelli
  • Versione più recente: gemini-1.0-pro-latest
  • Versione stabile più recente: gemini-1.0-pro
  • Versioni stabili:
    • gemini-1.0-pro-001
Gemini 1.0 Pro Vision Ultimo aggiornamento del modello Dicembre 2023
Codice modello models/gemini-pro-vision
Capacità del modello
  • Input: testo e immagini
  • Output: testo
  • Può accettare input, testo e immagini multimodali.
  • Può gestire attività zero, uno e few-shot.
Metodi di generazione supportati generateContent
Limite token di input 12288
Limite di token di output 4096
Sicurezza del modello Impostazioni di sicurezza applicate automaticamente e regolabili dagli sviluppatori. Per informazioni dettagliate, consulta l'argomento Impostazioni di sicurezza.
Limite di frequenza 60 richieste al minuto[1]
Incorporamento Ultimo aggiornamento del modello Dicembre 2023
Codice modello models/embedding-001
Capacità del modello
  • Input: testo
  • Output: testo
  • Genera incorporamenti di testo per il testo di input.
  • Ottimizzato per la creazione di incorporamenti per testo fino a 2048 token.
Metodi di generazione supportati embedContent
Sicurezza del modello Nessuna impostazione di sicurezza regolabile.
Limite di frequenza 1500 richieste al minuto[1]
Incorporamento del testo Ultimo aggiornamento del modello Aprile 2024
Codice modello models/text-embedding-004 (text-embedding-preview-0409 in Vertex AI)
Capacità del modello
  • Input: testo
  • Output: testo
  • Genera incorporamenti di testo per il testo di input.
  • Supporta dimensioni di incorporamento elastico inferiori a 768.
Metodi di generazione supportati embedContent
Sicurezza del modello Nessuna impostazione di sicurezza regolabile.
Limite di frequenza 1500 richieste al minuto[1]
AQA Ultimo aggiornamento del modello Dicembre 2023
Codice modello models/aqa
Capacità del modello
  • Input: testo
  • Output: testo
  • Modello che esegue le risposte alle domande attribuite.
  • Modello addestrato per restituire le risposte a domande che si basano su fonti fornite, oltre a stimare la probabilità rispondibile.
Metodi di generazione supportati generateAnswer
Lingue supportate Inglese
Limite token di input 7168
Limite di token di output 1024
Sicurezza del modello Impostazioni di sicurezza applicate automaticamente e regolabili dagli sviluppatori. Per informazioni dettagliate, consulta l'argomento Impostazioni di sicurezza.
Limite di frequenza 60 richieste al minuto[1]

Consulta gli esempi per esplorare le funzionalità di queste varianti dei modelli.

Metadati del modello

Usa l'API ModelService per ottenere metadati aggiuntivi sui modelli più recenti, come i limiti dei token di input e di output. La seguente tabella mostra i metadati per la variante del modello Gemini Pro.

Attributo Valore
Nome visualizzato Gemini 1.0 Pro
Codice modello models/gemini-1.0-pro
Descrizione Modello scelto come target per la generazione di testo
Metodi di generazione supportati generateContent
Temperatura 0,9
top_p 1
top_k 1

Attributi del modello

La seguente tabella descrive gli attributi dei modelli Gemini che sono comuni a tutte le varianti dei modelli.

Attributo Descrizione
Dati di addestramento La soglia delle conoscenze per Gemini è l'inizio del 2023. La conoscenza degli eventi successivi a questo periodo è limitata.
Lingue supportate Scopri le lingue disponibili
Parametri del modello configurabili
  • Top-p
  • Top-k
  • Temperatura
  • Interrompi sequenza
  • Lunghezza massima dell'output
  • Numero di candidati a risposta

[1] A causa delle limitazioni di capacità, i limiti di frequenza massimi specificati non sono garantiti.

Per informazioni su ciascuno di questi parametri, consulta la sezione relativa ai parametri del modello nella guida Introduzione agli LLM.

Passaggi successivi