Pembuatan cache konteks

Dalam alur kerja AI biasa, Anda mungkin meneruskan token input yang sama berulang kali ke suatu model. Dengan fitur penyimpanan cache konteks Gemini API, Anda dapat meneruskan beberapa konten ke model sekali, meng-cache token input, lalu merujuk ke token yang di-cache untuk permintaan berikutnya. Pada volume tertentu, menggunakan token yang di-cache memerlukan biaya yang lebih rendah daripada meneruskan korpus token yang sama berulang kali.

Saat Anda meng-cache serangkaian token, Anda dapat memilih berapa lama Anda ingin menyimpannya di cache ada sebelum token dihapus secara otomatis. Durasi penyimpanan dalam cache ini yang disebut time to live (TTL). Jika tidak disetel, TTL secara default ditetapkan ke 1 jam. Tujuan biaya untuk caching tergantung pada ukuran token input dan berapa lama Anda token untuk tetap ada.

Cache konteks mendukung Gemini 1.5 Pro dan Gemini 1.5 Flash.

Kapan harus menggunakan cache konteks

Cache konteks sangat cocok untuk skenario di mana konteks awal dirujuk berulang kali oleh permintaan yang lebih singkat. Pertimbangkan untuk menggunakan cache konteks untuk kasus penggunaan seperti:

  • Chatbot dengan petunjuk sistem lengkap
  • Analisis berulang terhadap file video yang panjang
  • Kueri berulang pada kumpulan dokumen berukuran besar
  • Analisis repositori kode yang sering atau perbaikan bug

Bagaimana penyimpanan dalam cache dapat mengurangi biaya

Penyimpanan cache konteks adalah fitur berbayar yang dirancang untuk mengurangi biaya operasional secara keseluruhan. Penagihan didasarkan pada faktor-faktor berikut:

  1. Jumlah token cache: Jumlah token input yang di-cache, ditagih dengan pengurangan tarif jika disertakan dalam perintah berikutnya.
  2. Durasi penyimpanan: Jumlah waktu token yang di-cache disimpan (TTL), ditagih berdasarkan durasi TTL dari jumlah token yang di-cache. Tidak ada batas minimum atau batas maksimum pada TTL.
  3. Faktor lain: Biaya lain berlaku, seperti untuk token input yang tidak di-cache dan token output.

Untuk mengetahui detail harga terbaru, lihat harga Gemini API halaman. Untuk mempelajari cara menghitung token, lihat Token panduan kami.

Cara menggunakan cache konteks

Bagian ini mengasumsikan bahwa Anda telah menginstal Gemini SDK dan mengonfigurasi API seperti yang ditunjukkan dalam panduan memulai.

Pertimbangan tambahan

Ingatlah selalu hal-hal berikut saat menggunakan penyimpanan dalam cache konteks:

  • Jumlah token input minimum untuk penyimpanan dalam cache konteks adalah 32.768, dan maksimum sama dengan nilai maksimum untuk model tertentu. (Untuk info selengkapnya tentang token penghitungan, lihat Panduan token).
  • Model ini tidak membedakan antara token yang di-cache dan token reguler token input. Konten yang di-cache hanyalah awalan pada perintah.
  • Tidak ada batas penggunaan atau rasio khusus untuk penyimpanan dalam cache konteks; standar batas kapasitas untuk GenerateContent berlaku, dan batas token mencakup cache token kata.
  • Jumlah token yang di-cache ditampilkan dalam usage_metadata dari membuat, memperoleh, dan membuat daftar operasi layanan cache, dan juga di GenerateContent saat menggunakan cache.