Memorizzazione nella cache del contesto

In un tipico flusso di lavoro IA, potresti passare sempre gli stessi token di input a un modello. Utilizzando la funzionalità di memorizzazione nella cache del contesto dell'API Gemini, puoi passare alcuni contenuti al modello una volta, memorizzare nella cache i token di input e poi fare riferimento ai token memorizzati nella cache per le richieste successive. A determinati volumi, l'utilizzo di token memorizzati nella cache ha un costo inferiore rispetto al passaggio ripetuto dello stesso corpus di token.

Quando memorizzi nella cache un insieme di token, puoi scegliere la durata della cache prima che i token vengano eliminati automaticamente. Questa durata della memorizzazione nella cache è denominata time to live (TTL). Se non viene impostato, il valore predefinito del TTL è 1 ora. Il costo della memorizzazione nella cache dipende dalle dimensioni del token di input e dal tempo di permanenza dei token.

La memorizzazione nella cache del contesto supporta sia Gemini 1.5 Pro che Gemini 1.5 Flash.

Quando utilizzare la memorizzazione nella cache di contesto

La memorizzazione nella cache del contesto è particolarmente adatta a scenari in cui un contesto iniziale sostanziale viene fatto riferimento ripetutamente da richieste più brevi. Valuta la possibilità di utilizzare la memorizzazione nella cache del contesto per casi d'uso come:

  • Chatbot con istruzioni di sistema esaustive
  • Analisi ripetitiva di file video di lunga durata
  • Query ricorrenti su set di documenti di grandi dimensioni
  • Analisi frequenti del repository di codice o correzione di bug

In che modo la memorizzazione nella cache riduce i costi

La memorizzazione nella cache del contesto è una funzionalità a pagamento progettata per ridurre i costi operativi complessivi. La fatturazione si basa sui seguenti fattori:

  1. Conteggio token cache: il numero di token di input memorizzati nella cache, fatturati a una tariffa ridotta quando inclusi nei prompt successivi.
  2. Durata dell'archiviazione: la quantità di tempo di archiviazione (TTL) dei token memorizzati nella cache, fatturata in base alla durata TTL del conteggio dei token memorizzati nella cache. Non sono previsti limiti minimi o massimi per il TTL.
  3. Altri fattori: vengono applicati altri addebiti, ad esempio per i token di input e di output non memorizzati nella cache.

Per i dettagli aggiornati sui prezzi, consulta la pagina dei prezzi dell'API Gemini. Per informazioni su come contare i token, consulta la Guida ai token.

Come utilizzare la memorizzazione nella cache di contesto

Questa sezione presuppone che tu abbia installato un SDK Gemini (o curl) e che tu abbia configurato una chiave API, come mostrato nella guida rapida.

Considerazioni aggiuntive

Quando utilizzi la memorizzazione nella cache di contesto, tieni presente le seguenti considerazioni:

  • Il numero minimo di token di input per la memorizzazione nella cache del contesto è pari a 32.768 e il massimo è uguale al numero massimo per il modello specificato. Per ulteriori informazioni sul conteggio dei token, consulta la guida ai token.
  • Il modello non fa distinzione tra token memorizzati nella cache e token di input regolari. I contenuti memorizzati nella cache sono semplicemente un prefisso del prompt.
  • Non sono previsti limiti di frequenza o di utilizzo speciali per la memorizzazione nella cache del contesto. Si applicano i limiti di frequenza standard per GenerateContent e i limiti di token includono i token memorizzati nella cache.
  • Il numero di token memorizzati nella cache viene restituito in usage_metadata dalle operazioni di creazione, recupero e elenco del servizio cache e anche in GenerateContent quando si utilizza la cache.