Gemini API dapat menghasilkan output teks saat teks, gambar, video, dan audio diberikan sebagai input.
Panduan ini menunjukkan cara membuat teks menggunakan metode
generateContent
dan
streamGenerateContent
. Untuk mempelajari cara menggunakan kemampuan audio dan visi Gemini,
lihat panduan Visi dan Audio.
Membuat teks dari input khusus teks
Cara termudah untuk membuat teks menggunakan Gemini API adalah dengan memberikan satu input khusus teks ke model, seperti yang ditunjukkan dalam contoh ini:
import google.generativeai as genai
genai.configure(api_key="GEMINI_API_KEY")
model = genai.GenerativeModel("gemini-1.5-flash")
response = model.generate_content("How does AI work?")
print(response.text)
Dalam hal ini, perintah ("Jelaskan cara kerja AI") tidak menyertakan contoh output, petunjuk sistem, atau informasi pemformatan. Ini adalah pendekatan zero-shot. Untuk beberapa kasus penggunaan, perintah one-shot atau few-shot mungkin menghasilkan output yang lebih selaras dengan ekspektasi pengguna. Dalam beberapa kasus, Anda mungkin juga ingin memberikan petunjuk sistem untuk membantu model memahami tugas atau mengikuti panduan tertentu.
Membuat teks dari input teks dan gambar
Gemini API mendukung input multimodal yang menggabungkan file teks dan media. Contoh berikut menunjukkan cara membuat teks dari input teks dan gambar:
import google.generativeai as genai
import PIL.Image
genai.configure(api_key="GEMINI_API_KEY")
model = genai.GenerativeModel("gemini-1.5-flash")
organ = PIL.Image.open("/path/to/organ.png")
response = model.generate_content(["Tell me about this instrument", organ])
print(response.text)
Membuat streaming teks
Secara default, model menampilkan respons setelah menyelesaikan seluruh proses pembuatan teks. Anda dapat mencapai interaksi yang lebih cepat dengan tidak menunggu seluruh hasil, dan sebagai gantinya menggunakan streaming untuk menangani hasil sebagian.
Contoh berikut menunjukkan cara menerapkan streaming menggunakan
metode streamGenerateContent
untuk
membuat teks dari perintah input khusus teks.
import google.generativeai as genai
genai.configure(api_key="GEMINI_API_KEY")
model = genai.GenerativeModel("gemini-1.5-flash")
response = model.generate_content("Explain how AI works", stream=True)
for chunk in response:
print(chunk.text, end="")
Membuat percakapan chat
Gemini SDK memungkinkan Anda mengumpulkan beberapa putaran pertanyaan
dan respons, sehingga pengguna dapat melangkah secara bertahap menuju jawaban atau mendapatkan bantuan
untuk masalah multibagian. Fitur SDK ini menyediakan antarmuka untuk melacak histori percakapan, tetapi di balik layar menggunakan metode generateContent
yang sama untuk membuat respons.
Contoh kode berikut menunjukkan implementasi chat dasar:
import google.generativeai as genai
genai.configure(api_key="GEMINI_API_KEY")
model = genai.GenerativeModel("gemini-1.5-flash")
chat = model.start_chat(
history=[
{"role": "user", "parts": "Hello"},
{"role": "model", "parts": "Great to meet you. What would you like to know?"},
]
)
response = chat.send_message("I have 2 dogs in my house.")
print(response.text)
response2 = chat.send_message("How many paws are in my house?")
print(response2.text)
Anda juga dapat menggunakan streaming dengan chat, seperti yang ditunjukkan pada contoh berikut:
import google.generativeai as genai
genai.configure(api_key="GEMINI_API_KEY")
model = genai.GenerativeModel("gemini-1.5-flash")
chat = model.start_chat(
history=[
{"role": "user", "parts": "Hello"},
{"role": "model", "parts": "Great to meet you. What would you like to know?"},
]
)
response = chat.send_message("I have 2 dogs in my house.", stream=True)
for chunk in response:
print(chunk.text, end="")
response2 = chat.send_message("How many paws are in my house?", stream=True)
for chunk in response2:
print(chunk.text, end="")
print(chat.history)
Mengonfigurasi pembuatan teks
Setiap perintah yang Anda kirim ke model menyertakan parameter yang mengontrol cara model menghasilkan respons. Anda dapat menggunakan
GenerationConfig
untuk
mengonfigurasi parameter ini. Jika Anda tidak mengonfigurasi parameter, model akan menggunakan opsi default, yang dapat bervariasi menurut model.
Contoh berikut menunjukkan cara mengonfigurasi beberapa opsi yang tersedia.
import google.generativeai as genai
genai.configure(api_key="GEMINI_API_KEY")
model = genai.GenerativeModel("gemini-1.5-flash")
response = model.generate_content(
"Explain how AI works",
generation_config = genai.GenerationConfig(
max_output_tokens=1000,
temperature=0.1,
)
)
print(response.text)
Langkah berikutnya
Setelah menjelajahi dasar-dasar Gemini API, Anda dapat mencoba:
- Pemahaman visi: Pelajari cara menggunakan pemahaman visi native Gemini untuk memproses gambar dan video.
- Pemahaman audio: Pelajari cara menggunakan pemahaman audio native Gemini untuk memproses file audio.