ใช้งานเชิงพาณิชย์อย่างมีความรับผิดชอบ ซึ่งจะช่วยให้คุณปรับแต่งและนำไปใช้ในโปรเจ็กต์และแอปพลิเคชันของคุณเองได้
Gemma คือตระกูลโมเดลปัญญาประดิษฐ์ (AI) แบบ Generative ซึ่งคุณนำไปใช้ในงานการสร้างที่หลากหลายได้ เช่น การตอบคำถาม การสรุป และการหาเหตุผล โมเดล Gemma มีน้ำหนักแบบเปิดและอนุญาตให้Gemma 3 มีฟีเจอร์หลักต่อไปนี้ ลองใช้ใน AI Studio
- การป้อนรูปภาพและข้อความ: ความสามารถในการทำงานแบบหลายรูปแบบช่วยให้คุณป้อนรูปภาพและข้อความเพื่อทำความเข้าใจและวิเคราะห์ข้อมูลภาพได้ เริ่มสร้าง
- บริบทโทเค็น 128,000 รายการ: บริบทอินพุตที่ใหญ่ขึ้น 16 เท่าสําหรับการวิเคราะห์ข้อมูลมากขึ้นและแก้ปัญหาที่ซับซ้อนมากขึ้น
- รองรับภาษาหลากหลาย: ทํางานในภาษาของคุณหรือขยายความสามารถทางภาษาของแอปพลิเคชัน AI ด้วยการรองรับภาษากว่า 140 ภาษา เริ่มสร้าง
- ขนาดโมเดลที่นักพัฒนาแอปใช้งานได้: เลือกขนาดโมเดล (1,000 ล้าน 4,000 ล้าน 12,000 ล้าน 27,000 ล้าน) และระดับความแม่นยำที่เหมาะกับงานและทรัพยากรการประมวลผลของคุณมากที่สุด
คุณสามารถดาวน์โหลดโมเดล Gemma 3 ได้จาก Kaggle และ Hugging Face ดูรายละเอียดทางเทคนิคเพิ่มเติมเกี่ยวกับ Gemma 3 ได้ที่การ์ดรุ่นและรายงานทางเทคนิค นอกจากนี้ คุณยังดาวน์โหลดโมเดล Gemma Core เวอร์ชันเก่าได้อีกด้วย ดูข้อมูลเพิ่มเติมได้ที่รุ่น Gemma ก่อนหน้า
ลองใช้ Gemma 3 ดาวน์โหลดใน Kaggle ดาวน์โหลดใน Hugging Face
การป้อนข้อความและรูปภาพแบบหลายโมดัล
คุณจัดการกับงานการวิเคราะห์และการสร้างที่ซับซ้อนมากขึ้นได้ด้วย Gemma 3 เนื่องจากสามารถจัดการข้อมูลรูปภาพและข้อความ คุณสามารถใช้โมเดลนี้เพื่อตีความข้อมูลรูปภาพ ระบุวัตถุ ดึงข้อมูลข้อความ และดำเนินการอื่นๆ อีกมากมายจากอินพุตภาพเป็นเอาต์พุตข้อความ เริ่มสร้าง
หน้าต่างบริบทขนาด 128,000 โทเค็น
โมเดล Gemma 3 จัดการพรอมต์อินพุตได้สูงสุด 128, 000 โทเค็น ซึ่งเป็นหน้าต่างบริบทที่ใหญ่กว่าโมเดล Gemma รุ่นก่อนหน้า 16 เท่า โทเค็นจํานวนมากหมายความว่าคุณสามารถประมวลผลบทความหลายบทความที่มีหลายหน้า บทความเดียวขนาดใหญ่ หรือรูปภาพหลายร้อยรูปในพรอมต์เดียว
รองรับหลายภาษา
ทำงานเป็นภาษาของคุณเองด้วยการสนับสนุนที่มีให้ในตัวสำหรับภาษากว่า 140 ภาษา Gemma 3 ได้รับการฝึกให้รองรับภาษาจํานวนมากเมื่อเทียบกับ Gemma เวอร์ชันก่อนหน้า ซึ่งจะช่วยให้คุณทํางานกับภาพและข้อความได้มากขึ้นในภาษาที่ลูกค้าใช้ เริ่มสร้าง
ขนาดพารามิเตอร์และการแปลงค่าเป็นจำนวนเต็ม
Gemma 3 มี 3 รุ่นที่มีขนาดพารามิเตอร์ 4 ขนาดที่ระดับความแม่นยำ 5 ระดับ ตั้งแต่ความแม่นยำสูงสุดที่ 32 บิตไปจนถึงความแม่นยำต่ำสุดที่ 4 บิต ขนาดและความแม่นยำที่แตกต่างกันแสดงถึงชุดการแลกเปลี่ยนสําหรับแอปพลิเคชัน AI โดยทั่วไปแล้ว โมเดลที่มีพารามิเตอร์และจำนวนบิตสูงกว่า (ความแม่นยำสูงกว่า) จะมีประสิทธิภาพมากกว่า แต่มีค่าใช้จ่ายในการเรียกใช้มากกว่าในแง่ของรอบการประมวลผล ต้นทุนหน่วยความจำ และการใช้พลังงาน โมเดลที่มีพารามิเตอร์และจำนวนบิตต่ำ (ความแม่นยำต่ำ) จะมีความสามารถน้อยกว่า แต่อาจเพียงพอสำหรับงาน AI ของคุณ ตารางต่อไปนี้แสดงรายละเอียดข้อกำหนดหน่วยความจำ GPU หรือ TPU โดยประมาณสำหรับการเรียกใช้การอนุมานกับโมเดล Gemma 3 แต่ละขนาด
พารามิเตอร์ | 32 บิตแบบสมบูรณ์ | BF16 (16 บิต) | SFP8 (8 บิต) |
Q4_0 (4 บิต) |
INT4 (4 บิต) |
---|---|---|---|---|---|
Gemma 3 1B (ข้อความเท่านั้น) | 4 GB | 1.5 GB | 1.1 GB | 892 MB | 861 MB |
Gemma 3 4B | 16 GB | 6.4 GB | 4.4 GB | 3.4 GB | 3.2 GB |
Gemma 3 12B | 48 GB | 20 GB | 12.2 GB | 8.7 GB | 8.2 GB |
Gemma 3 27B | 108 GB | 46.4 GB | 29.1 GB | 21 GB | 19.9 GB |
ตารางที่ 1 หน่วยความจำ GPU หรือ TPU โดยประมาณที่จําเป็นในการโหลดโมเดล Gemma 3 โดยอิงตามจํานวนพารามิเตอร์และระดับการแปลงค่า (ความลึกของบิต)
การใช้หน่วยความจําจะเพิ่มขึ้นตามจํานวนโทเค็นทั้งหมดที่จําเป็นสําหรับพรอมต์ที่คุณเรียกใช้ ยิ่งจำนวนโทเค็นที่จําเป็นสําหรับประมวลผลพรอมต์มีจํานวนมากเท่าใด ก็ยิ่งต้องใช้หน่วยความจํามากขึ้นเท่านั้น ซึ่งนอกเหนือจากหน่วยความจําที่จําเป็นสําหรับโหลดโมเดล
โมเดล Gemma รุ่นก่อนหน้า
คุณสามารถใช้โมเดล Gemma รุ่นก่อนหน้าได้ ซึ่งรับได้จาก Kaggle และ Hugging Face ดูรายละเอียดทางเทคนิคเพิ่มเติมเกี่ยวกับรุ่น Gemma รุ่นก่อนหน้าได้ที่หน้าการ์ดรุ่นต่อไปนี้
- การ์ดรุ่น Gemma 2
- การ์ดโมเดลของ Gemma 1
พร้อมเริ่มสร้างแล้วหรือยัง เริ่มต้นใช้งานกับรุ่น Gemma