บทแนะนำนี้จะสาธิตวิธีเข้าถึง Gemini API สำหรับ Go ของคุณ ที่ใช้ Google AI Go SDK
ในบทแนะนำนี้ คุณจะได้เรียนรู้วิธีทำสิ่งต่อไปนี้
- ตั้งค่าโปรเจ็กต์ รวมถึงคีย์ API
- สร้างข้อความจากการป้อนข้อความเท่านั้น
- สร้างข้อความจากการป้อนข้อความและรูปภาพ (หลายรูปแบบ)
- สร้างการสนทนาแบบผลัดกันเล่น (แชท)
- ใช้การสตรีมเพื่อการโต้ตอบที่เร็วขึ้น
นอกจากนี้ บทแนะนำนี้ยังประกอบด้วยส่วนต่างๆ เกี่ยวกับกรณีการใช้งานขั้นสูง (เช่น การฝังและ โทเค็นการนับ) รวมทั้งตัวเลือกสำหรับ การควบคุมการสร้างเนื้อหา
ข้อกำหนดเบื้องต้น
บทแนะนำนี้จะถือว่าคุณคุ้นเคยกับการสร้างแอปพลิเคชันด้วย ไป
หากต้องการจบบทแนะนำนี้ โปรดตรวจสอบว่าสภาพแวดล้อมในการพัฒนาซอฟต์แวร์ของคุณเป็นไปตาม ข้อกำหนดต่อไปนี้
- ใช้เวอร์ชัน 1.20 ขึ้นไป
ตั้งค่าโปรเจ็กต์
ก่อนที่จะเรียกใช้ Gemini API คุณต้องตั้งค่าโปรเจ็กต์ ซึ่งรวมถึง ตั้งค่าคีย์ API, ติดตั้งแพ็กเกจ SDK และเริ่มต้นโมเดล
ตั้งค่าคีย์ API
หากต้องการใช้ Gemini API คุณจะต้องมีคีย์ API หากคุณยังไม่มี สร้างคีย์ใน Google AI Studio
รักษาคีย์ API ให้ปลอดภัย
ขอแนะนำว่าอย่าตรวจสอบคีย์ API ในเวอร์ชันของคุณ ระบบควบคุม คุณควรใช้ที่เก็บข้อมูลลับสำหรับคีย์ API แทน
ข้อมูลโค้ดทั้งหมดในบทแนะนำนี้จะถือว่าคุณกำลังเข้าถึงคีย์ API ในชื่อ ตัวแปรสภาพแวดล้อม
ติดตั้งแพ็กเกจ SDK
หากต้องการใช้ Gemini API ในแอปพลิเคชันของคุณเอง คุณจะต้องget
ใช้ Go SDK
แพ็กเกจในไดเรกทอรีโมดูลของคุณ
go get github.com/google/generative-ai-go
เริ่มต้นโมเดล Generative
ก่อนที่จะเรียก API ได้ คุณต้องนำเข้าและเริ่มต้น โมเดล Generative
import "github.com/google/generative-ai-go/genai"
import "google.golang.org/api/option"
ctx := context.Background()
// Access your API key as an environment variable (see "Set up your API key" above)
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
// The Gemini 1.5 models are versatile and work with most use cases
model := client.GenerativeModel("gemini-1.5-flash")
เมื่อระบุโมเดล ให้คำนึงถึงสิ่งต่อไปนี้
ใช้โมเดลที่เหมาะกับ Use Case ของคุณโดยเฉพาะ (เช่น
gemini-1.5-flash
สำหรับการป้อนข้อมูลหลายรูปแบบ) ในคู่มือนี้ วิธีการสำหรับ โดยใช้รายการรูปแบบที่แนะนำสำหรับแต่ละกรณีการใช้งาน
ใช้ Use Case ทั่วไป
เมื่อตั้งค่าโปรเจ็กต์แล้ว คุณสามารถสำรวจโดยใช้ Gemini API เพื่อทำสิ่งต่อไปนี้ได้ ใช้กรณีการใช้งานที่แตกต่างกัน
- สร้างข้อความจากการป้อนข้อความเท่านั้น
- สร้างข้อความจากการป้อนข้อความและรูปภาพ (หลายรูปแบบ)
- สร้างการสนทนาแบบผลัดกันเล่น (แชท)
- ใช้การสตรีมเพื่อการโต้ตอบที่เร็วขึ้น
คุณดูข้อมูลเกี่ยวกับ Gemini API ได้ในส่วน Use Case ขั้นสูง และการฝัง
สร้างข้อความจากการป้อนข้อมูลแบบข้อความเท่านั้น
เมื่ออินพุตพรอมต์มีเฉพาะข้อความ ให้ใช้โมเดล Gemini 1.5 หรือ
โมเดล Gemini 1.0 Pro ที่มี generateContent
เพื่อสร้างเอาต์พุตข้อความ:
ctx := context.Background()
// Access your API key as an environment variable (see "Set up your API key" above)
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
model := client.GenerativeModel("gemini-1.5-flash")
resp, err := model.GenerateContent(ctx, genai.Text("Write a story about a magic backpack."))
if err != nil {
log.Fatal(err)
}
สร้างข้อความจากการป้อนข้อความและรูปภาพ (หลายรูปแบบ)
Gemini มีโมเดลต่างๆ ที่จัดการกับการป้อนข้อมูลหลายรูปแบบได้ (รุ่น Gemini 1.5) เพื่อให้คุณสามารถป้อนได้ทั้งข้อความและรูปภาพ อย่าลืม ตรวจสอบ ข้อกำหนดเกี่ยวกับรูปภาพสำหรับพรอมต์
เมื่ออินพุตพรอมต์มีทั้งข้อความและรูปภาพ ให้ใช้โมเดล Gemini 1.5
ด้วยเมธอด generateContent
เพื่อสร้างเอาต์พุตข้อความ:
ctx := context.Background()
// Access your API key as an environment variable (see "Set up your API key" above)
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
model := client.GenerativeModel("gemini-1.5-flash")
imgData1, err := os.ReadFile(pathToImage1)
if err != nil {
log.Fatal(err)
}
imgData2, err := os.ReadFile(pathToImage1)
if err != nil {
log.Fatal(err)
}
prompt := []genai.Part{
genai.ImageData("jpeg", imgData1),
genai.ImageData("jpeg", imgData2),
genai.Text("What's different between these two pictures?"),
}
resp, err := model.GenerateContent(ctx, prompt...)
if err != nil {
log.Fatal(err)
}
สร้างการสนทนาแบบผลัดกันเล่น (แชท)
การใช้ Gemini ช่วยให้คุณสร้างการสนทนาในรูปแบบอิสระในหลายๆ รอบได้
SDK ทำให้กระบวนการง่ายขึ้นโดยการจัดการสถานะของการสนทนา ซึ่งต่างจาก
เมื่อใช้ GenerateContent
คุณจะไม่ต้องจัดเก็บประวัติการสนทนา
ตัวคุณเอง
หากต้องการสร้างการสนทนาแบบหลายรอบ (เช่น แชท) ให้ใช้โมเดล Gemini 1.5 หรือ
Gemini 1.0 Pro และเริ่มแชทโดยโทรหา startChat()
จากนั้นใช้ sendMessage()
เพื่อส่งข้อความของผู้ใช้ใหม่ ซึ่งจะต่อท้ายด้วย
และการตอบกลับประวัติการแชท
มี 2 ตัวเลือกที่เป็นไปได้สำหรับ role
ที่เชื่อมโยงกับเนื้อหาใน
การสนทนา:
user
: บทบาทที่แสดงข้อความแจ้ง ค่านี้เป็นค่าเริ่มต้นสำหรับSendMessage
สายmodel
: บทบาทที่ให้คำตอบ บทบาทนี้สามารถใช้ได้เมื่อ กำลังโทรหาStartChat()
ด้วยhistory
ปัจจุบัน
ctx := context.Background()
// Access your API key as an environment variable (see "Set up your API key" above)
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
// The Gemini 1.5 models are versatile and work with multi-turn conversations (like chat)
model := client.GenerativeModel("gemini-1.5-flash")
// Initialize the chat
cs := model.StartChat()
cs.History = []*genai.Content{
&genai.Content{
Parts: []genai.Part{
genai.Text("Hello, I have 2 dogs in my house."),
},
Role: "user",
},
&genai.Content{
Parts: []genai.Part{
genai.Text("Great to meet you. What would you like to know?"),
},
Role: "model",
},
}
resp, err := cs.SendMessage(ctx, genai.Text("How many paws are in my house?"))
if err != nil {
log.Fatal(err)
}
ใช้สตรีมมิงเพื่อการโต้ตอบที่เร็วขึ้น
โดยค่าเริ่มต้น โมเดลจะแสดงผลการตอบกลับหลังจากเสร็จสิ้นการสร้างทั้งหมด ขั้นตอนได้ คุณสามารถสร้างการโต้ตอบได้เร็วขึ้นโดยไม่ต้องรอ ผลลัพธ์ และใช้สตรีมมิงเพื่อจัดการกับผลลัพธ์บางส่วนแทน
ตัวอย่างต่อไปนี้แสดงวิธีใช้งานสตรีมมิงด้วย
เมธอด GenerateContentStream
ในการสร้างข้อความจากการป้อนข้อความและรูปภาพ
ปรากฏขึ้น
ctx := context.Background()
// Access your API key as an environment variable (see "Set up your API key" above)
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
// The Gemini 1.5 models are versatile and work with both text-only and multimodal prompts
model := client.GenerativeModel("gemini-1.5-flash")
imageBytes, err := os.ReadFile(pathToImage)
img := genai.ImageData("jpeg", imageBytes)
prompt := genai.Text("Tell me a story about this animal")
iter := model.GenerateContentStream(ctx, img, prompt)
for {
resp, err := iter.Next()
if err == iterator.Done {
break
}
if err != nil {
log.Fatal(err)
}
// ... print resp
}
คุณสามารถใช้วิธีที่คล้ายกันสำหรับการป้อนข้อความเท่านั้นและกรณีการใช้งานแชทได้
prompt := genai.Text("Tell me a story about a lumberjack and his giant ox")
iter := model.GenerateContentStream(ctx, prompt)
prompt := genai.Text("And how do you feel about that?")
iter := cs.SendMessageStream(ctx, prompt)
ใช้ Use Case ขั้นสูง
กรณีการใช้งานทั่วไปที่อธิบายไว้ในส่วนก่อนหน้าของความช่วยเหลือเกี่ยวกับบทแนะนำนี้ ที่คุณจะเริ่มคุ้นเคยกับการใช้ Gemini API ส่วนนี้อธิบายถึงบางส่วน Use Case ที่อาจถือว่าเป็น Use Case ขั้นสูงกว่า
ใช้การฝัง
การฝังเป็นเทคนิคที่ใช้ในการแสดงข้อมูล เป็นรายการของจำนวนทศนิยมในอาร์เรย์ Gemini ช่วยให้คุณสามารถนำเสนอ ข้อความ (คำ ประโยค และข้อความ) ในรูปแบบเวกเตอร์ สามารถเปรียบเทียบ และความแตกต่างของการฝังได้ง่ายกว่า เช่น ข้อความสองฉบับที่ใช้ เรื่องหรือความรู้สึกที่คล้ายกัน ควรมีการฝังเนื้อหาที่คล้ายกัน ซึ่งสามารถ ที่ระบุผ่านเทคนิคการเปรียบเทียบทางคณิตศาสตร์ เช่น ความคล้ายของโคไซน์
ใช้โมเดล embedding-001
กับเมธอด EmbedContent
(หรือ
BatchEmbedContent
) เพื่อสร้างการฝัง ตัวอย่างต่อไปนี้
สร้างการฝังสำหรับสตริงเดียว:
ctx := context.Background()
// Access your API key as an environment variable (see "Set up your API key" above)
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
// For embeddings, use the embedding-001 model
em := client.EmbeddingModel("embedding-001")
res, err := em.EmbedContent(ctx, genai.Text("The quick brown fox jumps over the lazy dog."))
if err != nil {
panic(err)
}
fmt.Println(res.Embedding.Values)
กำลังเรียกฟังก์ชัน
การเรียกฟังก์ชันช่วยให้คุณได้รับเอาต์พุตของ Structured Data ได้ง่ายขึ้น โมเดล Generative จากนั้นคุณสามารถใช้เอาต์พุตเหล่านี้เพื่อเรียกใช้ API อื่นๆ และแสดงผล ข้อมูลการตอบสนองที่เกี่ยวข้องกับโมเดล กล่าวอีกนัยหนึ่งคือ การเรียกฟังก์ชันช่วยให้ คุณเชื่อมต่อโมเดล Generative กับระบบภายนอกเพื่อให้เนื้อหาที่สร้างขึ้น ประกอบด้วยข้อมูลล่าสุดและถูกต้อง ดูข้อมูลเพิ่มเติมใน บทแนะนำการเรียกใช้ฟังก์ชัน
นับโทเค็น
การนับโทเค็นก่อนส่งอาจมีประโยชน์เมื่อใช้ข้อความแจ้งที่ยาว
ของเนื้อหากับโมเดล ตัวอย่างต่อไปนี้จะแสดงวิธีใช้ CountTokens()
สำหรับกรณีการใช้งานต่างๆ ดังนี้
// For text-only input
text := "Parrots can be green and live a long time."
resp, err := model.CountTokens(ctx, genai.Text(text))
if err != nil {
log.Fatal(err)
}
fmt.Println(resp.TotalTokens)
// For text-and-image input (multimodal)
text := "Parrots can be green and live a long time."
imageBytes, err := os.ReadFile(pathToImage)
if err != nil {
log.Fatal(err)
}
resp, err := model.CountTokens(
ctx,
genai.Text(text),
genai.ImageData("png", imageBytes))
if err != nil {
log.Fatal(err)
}
fmt.Println(resp.TotalTokens)
ตัวเลือกในการควบคุมการสร้างเนื้อหา
คุณสามารถควบคุมการสร้างเนื้อหาได้โดยกำหนดค่าพารามิเตอร์โมเดลและ การตั้งค่าความปลอดภัย
กำหนดค่าพารามิเตอร์โมเดล
ทุกพรอมต์ที่คุณส่งไปยังโมเดลจะมีค่าพารามิเตอร์ที่ควบคุมวิธีการ โมเดลจะสร้างคำตอบ โมเดลนี้สามารถสร้างผลลัพธ์ที่แตกต่างกันสำหรับ ค่าพารามิเตอร์ต่างๆ ดูข้อมูลเพิ่มเติมเกี่ยวกับ พารามิเตอร์โมเดล การกำหนดค่าคือ จะคงอยู่ตลอดอายุการใช้งานของอินสแตนซ์โมเดลของคุณ
// ...
// The Gemini 1.5 models are versatile and work with most use cases
model := client.GenerativeModel("gemini-1.5-flash")
// Configure model parameters by invoking Set* methods on the model.
model.SetTemperature(0.9)
model.SetTopK(1)
// ...
ใช้การตั้งค่าความปลอดภัย
คุณสามารถใช้การตั้งค่าความปลอดภัยเพื่อปรับโอกาสที่จะได้รับคำตอบที่ อาจเป็นอันตราย โดยค่าเริ่มต้น การตั้งค่าความปลอดภัยจะบล็อกเนื้อหาที่มีสื่อ และ/หรือมีโอกาสสูงที่จะเป็นเนื้อหาที่ไม่ปลอดภัยในทุกมิติข้อมูล ดูข้อมูล เพิ่มเติมเกี่ยวกับการตั้งค่าความปลอดภัย
วิธีตั้งค่าความปลอดภัย 1 รายการมีดังนี้
// ...
// The Gemini 1.5 models are versatile and work with most use cases
model := client.GenerativeModel("gemini-1.5-flash")
model.SafetySettings = []*genai.SafetySetting{
{
Category: genai.HarmCategoryHarassment,
Threshold: genai.HarmBlockOnlyHigh,
},
}
// ...
นอกจากนี้ คุณยังสามารถตั้งค่าความปลอดภัยได้มากกว่า 1 รายการ ดังนี้
// ...
// The Gemini 1.5 models are versatile and work with most use cases
model := client.GenerativeModel("gemini-1.5-flash")
model.SafetySettings = []*genai.SafetySetting{
{
Category: genai.HarmCategoryHarassment,
Threshold: genai.HarmBlockOnlyHigh,
},
{
Category: genai.HarmCategoryHateSpeech,
Threshold: genai.HarmBlockMediumAndAbove,
},
}
// ...
ขั้นตอนถัดไป
การออกแบบพรอมต์เป็นกระบวนการสร้างข้อความแจ้งที่จะกระตุ้นความต้องการ การตอบสนองจากโมเดลภาษา การเขียนพรอมต์แบบมีโครงสร้างที่ดีเป็นสิ่งจำเป็น ส่วนหนึ่งคือการรับรองคำตอบที่ถูกต้องและมีคุณภาพสูงจากโมเดลภาษา ดูข้อมูลเกี่ยวกับแนวทางปฏิบัติแนะนำสำหรับการเขียนพรอมต์
Gemini นำเสนอโมเดลที่หลากหลายเพื่อตอบสนองความต้องการในการใช้งานที่แตกต่างกัน เช่น ประเภทการป้อนข้อมูลและความซับซ้อน การใช้งานสำหรับการแชท งานภาษากล่องโต้ตอบ และข้อจำกัดด้านขนาด ดูข้อมูลเกี่ยวกับโมเดล Gemini ที่พร้อมใช้งาน