LM Studio 是一款簡單易用但功能強大的桌面應用程式,可直接在電腦上測試及開發本機 AI 模型。LM Studio 支援 GGUF (llama.cpp) 和 MLX 格式的 Gemma 模型,可在本機電腦上快速有效率地執行推論。
設定
本節將逐步說明如何要求模型存取權、下載及安裝 LM Studio 軟體,以及將 Gemma 模型載入 LM Studio。
下載並安裝 LM Studio
從 LM Studio 網站下載 macOS、Windows 或 Linux 的安裝程式。
下載並執行安裝程式後,開啟 LM Studio 應用程式,並點選各處熟悉介面。如要下載模型,請在 Mac 上按下 Cmd + Shift + M 鍵,或在 PC 上按下 Ctrl + Shift + M 鍵。
下載 Gemma 模型以在本機執行
Gemma 模型記憶體用量極少,功能卻十分強大,包括文字生成、遵循指令、使用工具,以及 (在某些情況下) 圖像解讀,因此深受本機 LLM 使用者歡迎。在應用程式或 https://lmstudio.ai/models 中探索員工精選模型,找出適合你機器的 Gemma 模型。您也可以在 LM Studio 應用程式中搜尋及下載 Gemma 模型,或使用 lms CLI (瞭解詳情)。
使用 LM Studio 的應用程式內建模型下載器
- 開啟 LM Studio 應用程式,然後按下 Mac 上的 ⌘ + Shift + M 鍵,或 PC 上的 Ctrl + Shift + M 鍵,搜尋任何模型。
- 搜尋「Gemma」
- 選擇感興趣的結果,LM Studio 就會根據你的硬體建議合適的變體。
- 點選「下載」,下載完成後,載入模型即可在新的對話中使用。
進階:使用自行轉換的 GGUF Gemma 模型檔案
如果您自行將 Gemma 模型轉換為 GGUF,可以使用 LM Studio 的 CLI lms 將模型載入 LM Studio。
- 用途:
lms import <path/to/model.gguf>
- LM Studio 會自動偵測模型,並在「My Models」下方的應用程式中填入模型。
- 視需要調整脈絡長度和硬體設定。
如果 lms import 無法自動運作,您仍可手動將模型匯入 LM Studio。如要進一步瞭解 LM Studio 的模型目錄結構,請參閱「匯入模型」。
模型載入完成後 (進度列會顯示),您就可以在 LM Studio 中開始對話!
透過 LM Studio 的伺服器提供模型
透過 LM Studio 的 GUI 提供服務
在 LM Studio 應用程式中,前往「Developer」分頁,然後按下 Cmd/Ctrl + L 開啟模型載入器。您可以在這裡查看已下載的模型清單,並選取要載入的模型。LM Studio 預設會選取可讓模型在硬體上發揮最佳效能的載入參數。
透過 LM Studio 的 CLI 提供服務
如果偏好在終端機中工作,請使用 LM Studio 的 CLI 與模型互動。如要查看指令清單,請前往「lms」。
首先,請執行下列指令,載入您下載的 Gemma 模型:
lms load <model_key>
``` You can find the model_key by first running
`lms ls` to list your locally downloaded models.
Next, turn on LM Studio's local API server by running:
```bash
lms server start
現在可以開始使用了!使用 LM Studio 的 REST API,從自己的程式碼以程式輔助方式使用 Gemma 模型。
進一步瞭解如何執行這項操作: https://lmstudio.ai/docs/developer。
附錄
從 Hugging Face 取得模型
首先,請在 Hugging Face 的「Local Apps Settings」(本機應用程式設定)下方啟用 LM Studio。
在模型資訊卡上,按一下「使用這個模型」下拉式選單,然後選取 LM Studio。 如果已有模型,系統會直接在 LM Studio 中執行;如果沒有,則會顯示下載選項。