Generative Language API
Gemini API ช่วยให้นักพัฒนาแอปสร้างแอปพลิเคชัน Generative AI โดยใช้โมเดล Gemini ได้ Gemini คือโมเดลที่มากความสามารถที่สุดของเรา ซึ่งสร้างขึ้นมาใหม่ทั้งหมดให้ทำงานได้หลายรูปแบบ สามารถสรุปและทำความเข้าใจ ทำงานท่ามกลางความหลากของข้อมูล และรวมข้อมูลประเภทต่างๆ เข้าด้วยกันได้อย่างราบรื่น ทั้งภาษา รูปภาพ เสียง วิดีโอ และโค้ด คุณสามารถใช้ Gemini API สำหรับ Use Case ต่างๆ เช่น การให้เหตุผลในข้อความและรูปภาพ การสร้างเนื้อหา เอเจนต์โต้ตอบ ระบบสรุปและจัดประเภท และอื่นๆ
- ทรัพยากร REST: v1beta.batches
- ทรัพยากร REST: v1beta.cachedContents
- ทรัพยากร REST: v1beta.corpora
- ทรัพยากร REST: v1beta.corpora.documents
- ทรัพยากร REST: v1beta.corpora.documents.chunks
- ทรัพยากร REST: v1beta.corpora.operations
- ทรัพยากร REST: v1beta.corpora.permissions
- ทรัพยากร REST: v1beta.dynamic
- ทรัพยากร REST: v1beta.files
- ทรัพยากร REST: v1beta.generatedFiles
- ทรัพยากร REST: v1beta.generatedFiles.operations
- ทรัพยากร REST: v1beta.media
- ทรัพยากร REST: v1beta.models
- ทรัพยากร REST: v1beta.models.operations
- ทรัพยากร REST: v1beta.ragStores
- ทรัพยากร REST: v1beta.ragStores.documents
- ทรัพยากร REST: v1beta.ragStores.operations
- ทรัพยากร REST: v1beta.ragStores.upload.operations
- ทรัพยากร REST: v1beta.tunedModels
- ทรัพยากร REST: v1beta.tunedModels.operations
- ทรัพยากร REST: v1beta.tunedModels.permissions
บริการ: generativelanguage.googleapis.com
หากต้องการเรียกใช้บริการนี้ เราขอแนะนำให้คุณใช้ไลบรารีของไคลเอ็นต์ที่ Google จัดหาให้ หากแอปพลิเคชันของคุณต้องใช้ไลบรารีของคุณเองเพื่อเรียกใช้บริการนี้ ให้ใช้ข้อมูลต่อไปนี้เมื่อส่งคำขอ API
ปลายทางบริการ
ปลายทางบริการคือ URL ฐานที่ระบุที่อยู่เครือข่ายของบริการ API บริการหนึ่งๆ อาจมีปลายทางบริการหลายรายการ บริการนี้มีปลายทางของบริการต่อไปนี้ และ URI ทั้งหมดด้านล่างจะเกี่ยวข้องกับปลายทางของบริการนี้
https://generativelanguage.googleapis.com
ทรัพยากร REST: v1beta.batches
เมธอด | |
---|---|
cancel |
POST /v1beta/{name=batches/*}:cancel เริ่มการยกเลิกแบบไม่พร้อมกันในการดำเนินการที่ใช้เวลานาน |
delete |
DELETE /v1beta/{name=batches/*} ลบการดำเนินการที่ใช้เวลานาน |
get |
GET /v1beta/{name=batches/*} รับสถานะล่าสุดของการดำเนินการที่ใช้เวลานาน |
list |
GET /v1beta/{name=batches} แสดงการดำเนินการที่ตรงกับตัวกรองที่ระบุในคำขอ |
updateEmbedContentBatch |
PATCH /v1beta/{embedContentBatch.name=batches/*}:updateEmbedContentBatch อัปเดตกลุ่มคำขอ EmbedContent สำหรับการประมวลผลแบบเป็นกลุ่ม |
updateGenerateContentBatch |
PATCH /v1beta/{generateContentBatch.name=batches/*}:updateGenerateContentBatch อัปเดตคำขอ GenerateContent แบบเป็นกลุ่มสำหรับการประมวลผลแบบเป็นกลุ่ม |
ทรัพยากร REST: v1beta.cachedContents
เมธอด | |
---|---|
create |
POST /v1beta/cachedContents สร้างทรัพยากร CachedContent |
delete |
DELETE /v1beta/{name=cachedContents/*} ลบทรัพยากร CachedContent |
get |
GET /v1beta/{name=cachedContents/*} อ่านทรัพยากร CachedContent |
list |
GET /v1beta/cachedContents แสดงรายการ CachedContents |
patch |
PATCH /v1beta/{cachedContent.name=cachedContents/*} อัปเดตทรัพยากร CachedContent (อัปเดตได้เฉพาะการหมดอายุ) |
ทรัพยากร REST: v1beta.files
เมธอด | |
---|---|
delete |
DELETE /v1beta/{name=files/*} ลบ File |
get |
GET /v1beta/{name=files/*} รับข้อมูลเมตาสำหรับ File ที่ระบุ |
list |
GET /v1beta/files แสดงข้อมูลเมตาสำหรับ File ที่โปรเจ็กต์ที่ขอเป็นเจ้าของ |
ทรัพยากร REST: v1beta.media
เมธอด | |
---|---|
upload |
POST /v1beta/{ragStoreName=ragStores/*}:uploadToRagStore POST /upload/v1beta/{ragStoreName=ragStores/*}:uploadToRagStore อัปโหลดข้อมูลไปยัง RagStore ประมวลผลล่วงหน้าและแบ่งเป็นกลุ่มก่อนจัดเก็บในเอกสาร RagStore |
ทรัพยากร REST: v1beta.models
เมธอด | |
---|---|
asyncBatchEmbedContent |
POST /v1beta/{batch.model=models/*}:asyncBatchEmbedContent จัดคิวคำขอ EmbedContent เป็นชุดเพื่อประมวลผลแบบเป็นชุด |
batchEmbedContents |
POST /v1beta/{model=models/*}:batchEmbedContents สร้างเวกเตอร์การฝังหลายรายการจากอินพุต Content ซึ่งประกอบด้วยสตริงกลุ่มหนึ่งที่แสดงเป็นออบเจ็กต์ EmbedContentRequest |
batchEmbedText |
POST /v1beta/{model=models/*}:batchEmbedText สร้างการฝังหลายรายการจากโมเดลโดยใช้ข้อความอินพุตในการเรียกแบบพร้อมกัน |
batchGenerateContent |
POST /v1beta/{batch.model=models/*}:batchGenerateContent จัดคิวคำขอ GenerateContent เป็นชุดเพื่อประมวลผลแบบเป็นชุด |
countMessageTokens |
POST /v1beta/{model=models/*}:countMessageTokens เรียกใช้โทเค็นไนเซอร์ของโมเดลในสตริงและแสดงผลจำนวนโทเค็น |
countTextTokens |
POST /v1beta/{model=models/*}:countTextTokens เรียกใช้โทเค็นไนเซอร์ของโมเดลในข้อความและแสดงผลจำนวนโทเค็น |
countTokens |
POST /v1beta/{model=models/*}:countTokens เรียกใช้โทเค็นไนเซอร์ของโมเดลในอินพุต Content และแสดงผลจำนวนโทเค็น |
embedContent |
POST /v1beta/{model=models/*}:embedContent สร้างเวกเตอร์การฝังข้อความจากอินพุต Content โดยใช้โมเดลการฝัง Gemini ที่ระบุ |
embedText |
POST /v1beta/{model=models/*}:embedText สร้างการฝังจากโมเดลที่กำหนดโดยใช้ข้อความอินพุต |
generateContent |
POST /v1beta/{model=models/*}:generateContent สร้างคำตอบของโมเดลเมื่อได้รับอินพุต GenerateContentRequest |
generateMessage |
POST /v1beta/{model=models/*}:generateMessage สร้างคำตอบจากโมเดลโดยพิจารณาจากอินพุต MessagePrompt |
generateText |
POST /v1beta/{model=models/*}:generateText สร้างการตอบกลับจากโมเดลเมื่อได้รับข้อความอินพุต |
get |
GET /v1beta/{name=models/*} รับข้อมูลเกี่ยวกับ Model ที่เฉพาะเจาะจง เช่น หมายเลขเวอร์ชัน ขีดจํากัดโทเค็น พารามิเตอร์ และข้อมูลเมตาอื่นๆ |
list |
GET /v1beta/models แสดงรายการ Model ที่พร้อมใช้งานผ่าน Gemini API |
predict |
POST /v1beta/{model=models/*}:predict ส่งคำขอการคาดการณ์ |
predictLongRunning |
POST /v1beta/{model=models/*}:predictLongRunning เหมือนกับ Predict แต่จะแสดงผล LRO |
streamGenerateContent |
POST /v1beta/{model=models/*}:streamGenerateContent สร้างการตอบกลับแบบสตรีมจากโมเดลเมื่อได้รับอินพุต GenerateContentRequest |