Tutorial ini menunjukkan cara mengakses Gemini API untuk aplikasi Dart atau Flutter menggunakan Dart SDK Google AI. Anda dapat menggunakan SDK ini jika tidak ingin bekerja langsung dengan REST API untuk mengakses model Gemini di aplikasi Anda.
Dalam tutorial ini, Anda akan mempelajari cara melakukan hal berikut:
- Menyiapkan project Anda, termasuk kunci API
- Membuat teks dari input khusus teks
- Membuat teks dari input teks dan gambar (multimodal)
- Membuat percakapan multi-giliran (chat)
- Menggunakan streaming untuk interaksi yang lebih cepat
Selain itu, tutorial ini berisi bagian tentang kasus penggunaan lanjutan (seperti penyematan dan token penghitungan) serta opsi untuk mengontrol pembuatan konten.
Prasyarat
Tutorial ini mengasumsikan bahwa Anda telah memahami cara membangun aplikasi dengan Dart.
Untuk menyelesaikan tutorial ini, pastikan lingkungan pengembangan Anda memenuhi persyaratan berikut:
- Dart 3.2.0+
Menyiapkan project
Sebelum memanggil Gemini API, Anda perlu menyiapkan project yang mencakup penyiapan kunci API, penambahan SDK ke dependensi pub Anda, dan inisialisasi model.
Menyiapkan kunci API
Untuk menggunakan Gemini API, Anda memerlukan kunci API. Jika Anda belum memilikinya, buat kunci di Google AI Studio.
Mengamankan kunci API Anda
Menjaga keamanan kunci API. Sebaiknya Anda tidak menyertakan kunci API secara langsung pada kode, atau memeriksa file yang berisi kunci tersebut ke dalam sistem kontrol versi. Sebagai gantinya, Anda harus menggunakan secret store untuk kunci API.
Semua cuplikan dalam tutorial ini mengasumsikan bahwa Anda mengakses kunci API sebagai variabel lingkungan proses. Jika mengembangkan aplikasi Flutter, Anda dapat menggunakan String.fromEnvironment
dan meneruskan --dart-define=API_KEY=$API_KEY
ke flutter build
atau flutter run
untuk mengompilasi dengan kunci API karena lingkungan proses akan berbeda saat menjalankan aplikasi.
Menginstal paket SDK
Untuk menggunakan Gemini API di aplikasi sendiri, Anda harus melakukan add
paket google_generative_ai
ke aplikasi Dart atau Flutter Anda:
Dart
dart pub add google_generative_ai
Flutter
flutter pub add google_generative_ai
Menginisialisasi Model Generatif
Sebelum dapat melakukan panggilan API, Anda perlu mengimpor dan menginisialisasi Model Generatif.
import 'package:google_generative_ai/google_generative_ai.dart';
// Access your API key as an environment variable (see "Set up your API key" above)
final apiKey = Platform.environment['API_KEY'];
if (apiKey == null) {
print('No \$API_KEY environment variable');
exit(1);
}
final model = GenerativeModel(model: 'MODEL_NAME', apiKey: apiKey);
Saat menetapkan model, perhatikan hal-hal berikut:
Gunakan model yang spesifik untuk kasus penggunaan Anda (misalnya,
gemini-pro-vision
untuk input multimodal). Dalam panduan ini, petunjuk untuk setiap penerapan mencantumkan model yang direkomendasikan untuk setiap kasus penggunaan.
Menerapkan kasus penggunaan umum
Setelah project siap, Anda dapat menjelajah menggunakan Gemini API untuk menerapkan berbagai kasus penggunaan:
- Membuat teks dari input khusus teks
- Membuat teks dari input teks dan gambar (multimodal)
- Membuat percakapan multi-giliran (chat)
- Menggunakan streaming untuk interaksi yang lebih cepat
Di bagian kasus penggunaan lanjutan, Anda dapat menemukan informasi tentang Gemini API dan penyematan.
Membuat teks dari input khusus teks
Jika input perintah hanya menyertakan teks, gunakan model gemini-pro
dengan
metode generateContent
untuk menghasilkan output teks:
import 'dart:io';
import 'package:google_generative_ai/google_generative_ai.dart';
void main() async {
// Access your API key as an environment variable (see "Set up your API key" above)
final apiKey = Platform.environment['API_KEY'];
if (apiKey == null) {
print('No \$API_KEY environment variable');
exit(1);
}
// For text-only input, use the gemini-pro model
final model = GenerativeModel(model: 'gemini-pro', apiKey: apiKey);
final content = [Content.text('Write a story about a magic backpack.')];
final response = await model.generateContent(content);
print(response.text);
}
Membuat teks dari input teks dan gambar (multimodal)
Gemini menyediakan model multimodal (gemini-pro-vision
), sehingga Anda dapat memasukkan
teks dan gambar. Pastikan untuk meninjau
persyaratan gambar untuk input.
Saat input perintah menyertakan teks dan gambar, gunakan model gemini-pro-vision
dengan metode generateContent
untuk menghasilkan output teks:
import 'dart:io';
import 'package:google_generative_ai/google_generative_ai.dart';
void main() async {
// Access your API key as an environment variable (see "Set up your API key" above)
final apiKey = Platform.environment['API_KEY'];
if (apiKey == null) {
print('No \$API_KEY environment variable');
exit(1);
}
// For text-and-image input (multimodal), use the gemini-pro-vision model
final model = GenerativeModel(model: 'gemini-pro-vision', apiKey: apiKey);
final (firstImage, secondImage) = await (
File('image0.jpg').readAsBytes(),
File('image1.jpg').readAsBytes()
).wait;
final prompt = TextPart("What's different between these pictures?");
final imageParts = [
DataPart('image/jpeg', firstImage),
DataPart('image/jpeg', secondImage),
];
final response = await model.generateContent([
Content.multi([prompt, ...imageParts])
]);
print(response.text);
}
Membuat percakapan multi-giliran (chat)
Dengan Gemini, Anda dapat membuat percakapan berformat bebas di berbagai kesempatan. SDK
menyederhanakan proses dengan mengelola status percakapan, sehingga tidak seperti
generateContent
, Anda tidak perlu menyimpan sendiri histori percakapan
sendiri.
Untuk membuat percakapan multi-giliran (seperti chat), gunakan model gemini-pro
, dan
lakukan inisialisasi chat dengan memanggil startChat()
. Kemudian, gunakan sendMessage()
untuk mengirim pesan pengguna baru, yang juga akan menambahkan pesan dan respons ke histori chat.
Ada dua kemungkinan opsi untuk role
yang dikaitkan dengan konten dalam
percakapan:
user
: peran yang menyediakan dialog. Nilai ini merupakan default untuk panggilansendMessage
, dan fungsi ini akan menampilkan pengecualian jika peran yang berbeda diteruskan.model
: peran yang memberikan respons. Peran ini dapat digunakan saat memanggilstartChat()
denganhistory
yang ada.
import 'dart:io';
import 'package:google_generative_ai/google_generative_ai.dart';
Future<void> main() async {
// Access your API key as an environment variable (see "Set up your API key" above)
final apiKey = Platform.environment['API_KEY'];
if (apiKey == null) {
print('No \$API_KEY environment variable');
exit(1);
}
// For text-only input, use the gemini-pro model
final model = GenerativeModel(
model: 'gemini-pro',
apiKey: apiKey,
generationConfig: GenerationConfig(maxOutputTokens: 100));
// Initialize the chat
final chat = model.startChat(history: [
Content.text('Hello, I have 2 dogs in my house.'),
Content.model([TextPart('Great to meet you. What would you like to know?')])
]);
var content = Content.text('How many paws are in my house?');
var response = await chat.sendMessage(content);
print(response.text);
}
Menggunakan streaming untuk interaksi yang lebih cepat
Secara default, model akan menampilkan respons setelah menyelesaikan seluruh proses pembuatan. Anda dapat mencapai interaksi yang lebih cepat dengan tidak menunggu seluruh hasil, dan sebagai gantinya menggunakan streaming untuk menangani hasil parsial.
Contoh berikut menunjukkan cara mengimplementasikan streaming dengan
metode generateContentStream
untuk menghasilkan teks dari permintaan input
teks dan gambar.
// ...
final response = model.generateContentStream([
Content.multi([prompt, ...imageParts])
]);
await for (final chunk in response) {
print(chunk.text);
}
// ...
Anda dapat menggunakan pendekatan serupa untuk kasus penggunaan chat dan input khusus teks.
// Use streaming with text-only input
final response = model.generateContentStream(content);
// Use streaming with multi-turn conversations (like chat)
final response = chat.sendMessageStream(content);
Menerapkan kasus penggunaan lanjutan
Kasus penggunaan umum yang dijelaskan di bagian tutorial sebelumnya membantu Anda merasa nyaman dalam menggunakan Gemini API. Bagian ini menjelaskan beberapa kasus penggunaan yang mungkin dianggap lebih lanjut.
Menggunakan embedding
Embedding adalah teknik yang digunakan untuk mewakili informasi sebagai daftar bilangan floating point dalam array. Dengan Gemini, Anda dapat merepresentasikan teks (kata, kalimat, dan blok teks) dalam bentuk vektor, sehingga lebih mudah untuk membandingkan dan membedakan embedding. Misalnya, dua teks yang memiliki materi pokok atau sentimen serupa harus memiliki embedding serupa, yang dapat diidentifikasi melalui teknik perbandingan matematis seperti kesamaan kosinus.
Gunakan model embedding-001
dengan metode embedContent
(atau metode batchEmbedContent
) untuk menghasilkan embedding. Contoh berikut
menghasilkan embedding untuk satu string:
final model = GenerativeModel(model: 'embedding-001', apiKey: apiKey);
final content = Content.text('The quick brown fox jumps over the lazy dog.');
final result = await model.embedContent(content);
print(result.embedding.values);
Hitung token
Saat menggunakan perintah panjang, sebaiknya hitung token sebelum mengirim konten apa pun ke model. Contoh berikut menunjukkan cara menggunakan countTokens()
untuk berbagai kasus penggunaan:
// For text-only input
final tokenCount = await model.countTokens(Content.text(prompt));
print('Token count: ${tokenCount.totalTokens}');
// For text-and-image input (multimodal)
final tokenCount = await model.countTokens([
Content.multi([prompt, ...imageParts])
]);
print('Token count: ${tokenCount.totalTokens}');
// For multi-turn conversations (like chat)
final prompt = Content.text(message);
final allContent = [...chat.history, prompt];
final tokenCount = await model.countTokens(allContent);
print('Token count: ${tokenCount.totalTokens}');
Opsi untuk mengontrol pembuatan konten
Anda dapat mengontrol pembuatan konten dengan mengonfigurasi parameter model dan dengan menggunakan setelan keamanan.
Perhatikan bahwa meneruskan generationConfig
atau safetySettings
ke metode permintaan model (seperti generateContent
) akan sepenuhnya mengganti objek konfigurasi dengan nama yang sama yang diteruskan di getGenerativeModel
.
Mengonfigurasi parameter model
Setiap prompt yang Anda kirim ke model menyertakan parameter value yang mengontrol cara model menghasilkan respons. Model ini dapat memberikan hasil yang berbeda untuk parameter value yang berbeda. Pelajari Parameter model lebih lanjut. Konfigurasi dipertahankan selama masa pakai instance model Anda.
final generationConfig = GenerationConfig(
stopSequences: ["red"],
maxOutputTokens: 200,
temperature: 0.9,
topP: 0.1,
topK: 16,
);
final model = GenerativeModel(
model: 'MODEL_NAME',
apiKey: apiKey,
generationConfig: generationConfig,
);
Gunakan setelan keamanan
Anda dapat menggunakan setelan keamanan untuk menyesuaikan kemungkinan mendapatkan respons yang mungkin dianggap berbahaya. Secara default, setelan keamanan memblokir konten yang memiliki kemungkinan sedang dan/atau tinggi sebagai konten yang tidak aman di semua dimensi. Pelajari Setelan keamanan lebih lanjut.
Berikut cara menetapkan satu setelan keamanan:
final safetySettings = [
SafetySetting(HarmCategory.harassment, HarmBlockThreshold.high)
];
final model = GenerativeModel(
model: 'MODEL_NAME',
apiKey: apiKey,
safetySettings: safetySettings,
);
Anda juga dapat menetapkan lebih dari satu setelan keamanan:
final safetySettings = [
SafetySetting(HarmCategory.harassment, HarmBlockThreshold.high),
SafetySetting(HarmCategory.hateSpeech, HarmBlockThreshold.high),
];
Langkah selanjutnya
Desain prompt adalah proses pembuatan prompt yang mendapatkan respons yang diinginkan dari model bahasa. Menulis dialog yang terstruktur dengan baik adalah bagian penting untuk memastikan respons yang akurat dan berkualitas tinggi dari model bahasa. Pelajari praktik terbaik untuk penulisan perintah.
Gemini menawarkan beberapa variasi model untuk memenuhi kebutuhan berbagai kasus penggunaan, seperti jenis input dan kompleksitas, implementasi untuk chat atau tugas bahasa dialog lainnya, dan batasan ukuran. Pelajari model Gemini yang tersedia.
Gemini menawarkan opsi untuk meminta peningkatan batas kapasitas. Batas kapasitas untuk model Gemini Pro adalah 60 permintaan per menit (RPM).