Gemma 4 เปิดตัวพร้อมอินพุตข้อความ เสียง และรูปภาพ รวมถึงหน้าต่างบริบทแบบยาวที่มีโทเค็นให้ถึง 2.56 แสนโทเค็น
ดูข้อมูลเพิ่มเติม
ส่งความคิดเห็น
เรียกใช้ Gemma ด้วย Llama.cpp
llama.cpp เป็นไลบรารีโอเพนซอร์สยอดนิยมที่ออกแบบมาเพื่อการอนุมานในเครื่องอย่างมีประสิทธิภาพ
การเริ่มใช้งานอย่างง่าย
ติดตั้ง
llama.cpp เวอร์ชันที่สร้างไว้ล่วงหน้า
ตัวอย่างคำสั่ง
# Download and run a model directly from Hugging Face
llama-cli -hf ggml-org/gemma-4-E2B-it-GGUF --prompt "Write a poem about the Kraken."
# Use System Prompt
llama-cli -hf ggml-org/gemma-4-E2B-it-GGUF -sys "You are Hong Gildong." -p "Who are you?"
หากต้องการเริ่มต้นใช้งานและเรียกใช้โมเดลในอินเทอร์เฟซที่สวยงาม คุณสามารถเริ่มเซิร์ฟเวอร์ได้โดยใช้คำสั่งต่อไปนี้
llama-server -hf ggml-org/gemma-4-E2B-it-GGUF
ซึ่งจะสร้างเซิร์ฟเวอร์ที่ช่วยให้คุณเข้าถึงโมเดลได้จากอินเทอร์เฟซ
(http://localhost:8080) หรือโดยการเข้าถึงปลายทาง OpenAI
(http://localhost:8080/v1)
ดูข้อมูลเพิ่มเติมและวิธีการใช้ llama.cpp กับ Gemma ได้ที่ที่เก็บอย่างเป็นทางการ
llama.cpp ใน GitHub
ส่งความคิดเห็น
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2026-04-17 UTC
หากต้องการบอกให้เราทราบเพิ่มเติม
[[["เข้าใจง่าย","easyToUnderstand","thumb-up"],["แก้ปัญหาของฉันได้","solvedMyProblem","thumb-up"],["อื่นๆ","otherUp","thumb-up"]],[["ไม่มีข้อมูลที่ฉันต้องการ","missingTheInformationINeed","thumb-down"],["ซับซ้อนเกินไป/มีหลายขั้นตอนมากเกินไป","tooComplicatedTooManySteps","thumb-down"],["ล้าสมัย","outOfDate","thumb-down"],["ปัญหาเกี่ยวกับการแปล","translationIssue","thumb-down"],["ตัวอย่าง/ปัญหาเกี่ยวกับโค้ด","samplesCodeIssue","thumb-down"],["อื่นๆ","otherDown","thumb-down"]],["อัปเดตล่าสุด 2026-04-17 UTC"],[],[]]