Gemma 4 เปิดตัวพร้อมอินพุตข้อความ เสียง และรูปภาพ รวมถึงหน้าต่างบริบทแบบยาวที่มีโทเค็นให้ถึง 2.56 แสนโทเค็น
ดูข้อมูลเพิ่มเติม
ส่งความคิดเห็น
เรียกใช้ Gemma ด้วย MLX
MLX เป็นเฟรมเวิร์กอาร์เรย์สำหรับแมชชีนเลิร์นนิงบน Apple Silicon
การเริ่มใช้งานอย่างง่าย
ติดตั้ง
จากดัชนีแพ็กเกจ Python (PyPI)
pip install mlx mlx-lm mlx-vlm
ตัวอย่างคำสั่ง
# Text Generation
mlx_lm.generate --model mlx-community/gemma-4-e2b-it-4bit --prompt "Who are you?"
# Vision Task
mlx_vlm.generate --model mlx-community/gemma-4-e2b-it-4bit --prompt "Describe this image." --image <path_to_image>
คุณเริ่มเซิร์ฟเวอร์ได้โดยใช้คำสั่งต่อไปนี้
mlx_vlm.server --port 8080
# Preload a model at startup (Hugging Face repo or local path)
mlx_vlm.server --model mlx-community/gemma-4-e2b-it-4bit
ซึ่งจะสร้างเซิร์ฟเวอร์ที่ช่วยให้คุณเข้าถึงโมเดลด้วยปลายทางที่เข้ากันได้กับ OpenAI (http://localhost:8080/v1)
ดูข้อมูลเพิ่มเติมและวิธีการใช้ MLX กับ Gemma ได้ที่
ที่เก็บอย่างเป็นทางการ
ส่งความคิดเห็น
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2026-04-17 UTC
หากต้องการบอกให้เราทราบเพิ่มเติม
[[["เข้าใจง่าย","easyToUnderstand","thumb-up"],["แก้ปัญหาของฉันได้","solvedMyProblem","thumb-up"],["อื่นๆ","otherUp","thumb-up"]],[["ไม่มีข้อมูลที่ฉันต้องการ","missingTheInformationINeed","thumb-down"],["ซับซ้อนเกินไป/มีหลายขั้นตอนมากเกินไป","tooComplicatedTooManySteps","thumb-down"],["ล้าสมัย","outOfDate","thumb-down"],["ปัญหาเกี่ยวกับการแปล","translationIssue","thumb-down"],["ตัวอย่าง/ปัญหาเกี่ยวกับโค้ด","samplesCodeIssue","thumb-down"],["อื่นๆ","otherDown","thumb-down"]],["อัปเดตล่าสุด 2026-04-17 UTC"],[],[]]