Menyesuaikan dengan Gemini API

Strategi desain yang cepat seperti few-shot prompting mungkin tidak selalu menghasilkan hasil yang diperlukan. Fine-tuning adalah proses yang dapat meningkatkan kualitas performa pada tugas tertentu atau membantu model mematuhi output tertentu persyaratan, saat petunjuk tidak memadai, dan Anda memiliki banyak contoh yang menunjukkan {i>output<i} yang Anda inginkan.

Halaman ini memberikan ringkasan konseptual tentang cara menyesuaikan model teks di balik layanan teks Gemini API. Jika Anda sudah siap untuk memulai tuning, coba tutorial penyempurnaan kualitas. Jika Anda ingin mempelajari pengantar yang lebih umum tentang cara menyesuaikan LLM untuk kasus penggunaan tertentu, lihat LLM: Penyesuaian, distilasi, dan rekayasa perintah di Kursus Singkat Machine Learning.

Cara kerja penyesuaian

Tujuan {i>fine-tuning<i} adalah untuk lebih meningkatkan kinerja model untuk pada tugas spesifik Anda. Penyesuaian halus bekerja dengan menyediakan set data pelatihan kepada model yang berisi banyak contoh tugas. Untuk tugas khusus, Anda bisa mendapatkan peningkatan performa model yang signifikan dengan menyesuaikan model pada sejumlah kecil contoh. Penyesuaian model seperti ini terkadang disebut sebagai supervised fine-tuning, untuk membedakannya dari jenis fine-tuning lainnya.

Data pelatihan Anda harus disusun sebagai contoh dengan input perintah dan output respons yang diharapkan. Anda juga dapat menyesuaikan model menggunakan data contoh langsung di Google AI Studio. Tujuannya adalah mengajari model untuk meniru perilaku yang diinginkan atau tugas tertentu, dengan memberi banyak contoh yang menggambarkan perilaku atau tugas tersebut.

Saat Anda menjalankan tugas penyesuaian, model akan mempelajari parameter tambahan yang membantunya mengenkode informasi yang diperlukan untuk menjalankan tugas yang diinginkan atau mempelajari perilaku yang diinginkan. Parameter ini kemudian dapat digunakan pada waktu inferensi. Output tugas tuning adalah model baru, yang secara efektif merupakan kombinasi dari parameter yang baru dipelajari dan model asli.

Menyiapkan set data

Sebelum dapat memulai fine-tuning, Anda memerlukan set data untuk melakukan penyesuaian pada model. Untuk performa terbaik, contoh dalam set data harus berkualitas tinggi, beragam, dan mewakili input dan output yang sebenarnya.

Format

Contoh yang disertakan dalam set data harus sesuai dengan traffic produksi yang Anda harapkan. Jika set data Anda berisi pemformatan, kata kunci, petunjuk, atau informasi tertentu, data produksi harus diformat dengan cara yang sama dan berisi petunjuk yang sama.

Misalnya, jika contoh di set data Anda menyertakan "question:" dan "context:", traffic produksi juga harus diformat untuk menyertakan "question:" dan "context:" dalam urutan yang sama seperti yang tampak pada contoh set data. Jika Anda mengecualikan konteks, model tidak dapat mengenali pola, meskipun pertanyaan yang sama ada dalam contoh dalam set data.

Sebagai contoh lain, berikut adalah data pelatihan Python untuk aplikasi yang menghasilkan angka berikutnya dalam urutan:

training_data = [
  {"text_input": "1", "output": "2"},
  {"text_input": "3", "output": "4"},
  {"text_input": "-3", "output": "-2"},
  {"text_input": "twenty two", "output": "twenty three"},
  {"text_input": "two hundred", "output": "two hundred one"},
  {"text_input": "ninety nine", "output": "one hundred"},
  {"text_input": "8", "output": "9"},
  {"text_input": "-98", "output": "-97"},
  {"text_input": "1,000", "output": "1,001"},
  {"text_input": "10,100,000", "output": "10,100,001"},
  {"text_input": "thirteen", "output": "fourteen"},
  {"text_input": "eighty", "output": "eighty one"},
  {"text_input": "one", "output": "two"},
  {"text_input": "three", "output": "four"},
  {"text_input": "seven", "output": "eight"},
]

Menambahkan {i>prompt<i} atau {i>preamble<i} ke setiap contoh dalam {i>dataset<i} Anda juga dapat membantu meningkatkan performa model yang di-tuning. Catatan, jika {i>prompt<i} atau {i>preamble<i} dalam {i>dataset<i} Anda, data itu juga harus dimasukkan dalam prompt model pada waktu inferensi.

Batasan

Catatan: Penyesuaian set data untuk Gemini 1.5 Flash memiliki batasan berikut:

  • Ukuran input maksimum per contoh adalah 40.000 karakter.
  • Ukuran output maksimum per contoh adalah 5.000 karakter.

Ukuran data pelatihan

Anda dapat menyesuaikan model dengan hanya 20 contoh. Data tambahan umumnya akan meningkatkan kualitas respons. Anda harus menargetkan antara 100 dan 500 contoh, bergantung pada aplikasi Anda. Tabel berikut menunjukkan ukuran set data yang direkomendasikan untuk menyesuaikan model teks untuk berbagai tugas umum:

Tugas Jumlah contoh dalam set data
Klasifikasi 100+
Perangkuman 100-500+
Penelusuran dokumen 100+

Upload set data tuning Anda

Data diteruskan secara inline menggunakan API atau melalui file yang diupload di Google AI Studio.

Untuk menggunakan library klien, berikan file data dalam panggilan createTunedModel. Batas ukuran file adalah 4 MB. Lihat panduan memulai penyempurnaan dengan Python proses memulai.

Untuk memanggil REST API menggunakan cURL, berikan contoh pelatihan dalam format JSON ke argumen training_data. Lihat panduan memulai penyesuaian dengan cURL untuk memulai.

Setelan penyesuaian lanjutan

Saat membuat tugas tuning, Anda dapat menetapkan setelan lanjutan berikut:

  • Epoch: Pass pelatihan penuh pada seluruh set pelatihan sehingga setiap contoh telah diproses satu kali.
  • Ukuran batch: Kumpulan contoh yang digunakan dalam satu iterasi pelatihan. Ukuran batch menentukan jumlah contoh dalam batch.
  • Kecepatan pembelajaran: Angka floating point yang memberi tahu algoritma cara untuk menyesuaikan parameter model pada setiap iterasi. Misalnya, kecepatan pembelajaran 0,3 akan menyesuaikan bobot dan bias tiga kali lebih efektif daripada kecepatan pembelajaran 0,1. Rasio pembelajaran tinggi dan rendah memiliki kompromi unik tersendiri dan harus disesuaikan berdasarkan kasus penggunaan Anda.
  • Pengganda kecepatan pembelajaran: Pengganda kecepatan mengubah kecepatan pembelajaran asli model. Nilai 1 menggunakan kecepatan pembelajaran asli dari model transformer. Nilai yang lebih besar dari 1 akan meningkatkan kecepatan pemelajaran dan nilai antara 1 dan 0 menurunkan kecepatan pemelajaran.

Tabel berikut menunjukkan konfigurasi yang disarankan untuk melakukan fine-tuning model dasar berikut:

Hyperparameter Nilai default Penyesuaian yang direkomendasikan
Zaman 5

Jika kerugian mulai mencapai puncak sebelum 5 epoch, gunakan nilai yang lebih kecil.

Jika kerugian meningkat dan tampaknya tidak stabil, gunakan nilai yang lebih tinggi.

Ukuran batch 4
Kecepatan pembelajaran 0,001 Gunakan nilai yang lebih kecil untuk set data yang lebih kecil.

Kurva kerugian menunjukkan seberapa besar prediksi model menyimpang dari ideal prediksi dalam contoh pelatihan setelah setiap epoch. Idealnya, Anda ingin menghentikan pelatihan pada titik terendah dalam kurva tepat sebelum datanya mencapai datar. Misalnya, grafik di bawah ini menunjukkan dataran tinggi kurva kerugian sekitar epoch 4-6 yang berarti Anda dapat menetapkan parameter Epoch ke 4 dan tetap mendapatkan performa yang sama.

Diagram garis yang menunjukkan kurva penyimpangan untuk model tersebut. Garis melonjak di antara
epoch pertama dan kedua, lalu menurun tajam hingga hampir mencapai 0 dan naik level
setelah tiga epoch.

Memeriksa status tugas penyesuaian

Anda dapat memeriksa status tugas penyesuaian di Google AI Studio pada tab Library Saya atau menggunakan properti metadata dari model yang disesuaikan di Gemini API.

Mengatasi error

Bagian ini berisi tips tentang cara mengatasi error yang mungkin Anda alami saat membuat model yang di-tuning.

Autentikasi

Penyesuaian menggunakan API dan library klien memerlukan autentikasi. Anda dapat menyiapkan autentikasi menggunakan kunci API (direkomendasikan) atau menggunakan OAuth memiliki kredensial yang lengkap. Untuk dokumentasi tentang cara menyiapkan kunci API, lihat Menyiapkan kunci API.

Jika melihat error 'PermissionDenied: 403 Request had insufficient authentication scopes', Anda mungkin perlu menyiapkan autentikasi pengguna menggunakan OAuth memiliki kredensial yang lengkap. Untuk mengonfigurasi kredensial OAuth untuk Python, kunjungi tutorial penyiapan OAuth.

Model yang dibatalkan

Anda dapat membatalkan tugas fine-tuning kapan saja sebelum tugas itu selesai. Namun, performa inferensi model yang dibatalkan tidak dapat diprediksi, terutama jika tugas penyesuaian dibatalkan di awal pelatihan. Jika Anda membatalkan karena Anda ingin menghentikan pelatihan pada epoch sebelumnya, Anda harus membuat penyesuaian baru dan menyetel epoch ke nilai yang lebih rendah.

Batasan model yang di-tuning

Catatan: Model yang disesuaikan memiliki batasan berikut:

  • Batas input model Gemini 1.5 Flash yang dioptimalkan adalah 40.000 karakter.
  • Mode JSON tidak didukung dengan model yang dioptimalkan.
  • Hanya input teks yang didukung.

Langkah berikutnya

Mulai dengan tutorial fine-tuning: