Gemma gibi üretken yapay zeka (AI) modellerini çalıştırmak, doğru donanım olmadan zor olabilir. llama.cpp ve Ollama gibi açık kaynak çerçeveler, Gemma sürümlerini daha az bilgi işlem kaynağıyla çalıştırmanıza olanak tanıyan önceden yapılandırılmış bir çalışma ortamı oluşturarak bu işlemi kolaylaştırır. Aslında, llama.cpp ve Ollama'yı kullanarak Gemma sürümlerini grafik işleme birimi (GPU) olmayan bir dizüstü bilgisayarda veya başka bir küçük bilgisayar cihazında çalıştırabilirsiniz.
Gemma modellerini daha az işlem kaynağıyla çalıştırmak için llama.cpp ve Ollama çerçeveleri, GPT Tarafından Oluşturulan Birleştirilmiş Biçim (GGUF) model dosya biçimindeki modellerin kümelenmiş sürümlerini kullanır. Bu kesirli modeller, istekleri daha küçük ve daha az hassas veriler kullanarak işlemek için değiştirilir. İstekleri işlemek için kesirli modellerde daha az hassas veriler kullanmak genellikle model çıktısının kalitesini düşürür ancak işlem kaynağı maliyetlerini de düşürür.
Bu kılavuzda, metin yanıtları oluşturmak için Gemma'yı çalıştırmak üzere Ollama'yı nasıl ayarlayacağınız ve kullanacağınız açıklanmaktadır.
Kurulum
Bu bölümde, Ollama'da model erişimi isteme, yazılım yükleme ve Gemma modelini yapılandırma gibi isteklere yanıt vermek için Ollama'yı nasıl ayarlayacağınız ve bir Gemma model örneğini nasıl hazırlayacağınız açıklanmaktadır.
Gemma modellerine erişme
Gemma modelleriyle çalışmadan önce Kaggle üzerinden erişim isteğinde bulunduğunuzdan ve Gemma kullanım şartlarını incelediğinizden emin olun.
Install Ollama
Gemma'yı Ollama ile kullanabilmek için Ollama yazılımını bilgisayarınıza indirip yüklemeniz gerekir.
Ollama'yı indirip yüklemek için:
- İndirme sayfasına gidin: https://ollama.com/download
- İşletim sisteminizi seçin, İndir düğmesini tıklayın veya indirme sayfasındaki talimatları uygulayın.
- Yükleyiciyi çalıştırarak uygulamayı yükleyin.
- Windows: Yükleyici *.exe dosyasını çalıştırın ve talimatları uygulayın.
- Mac: Zip paketini açın ve Ollama uygulama klasörünü Uygulamalar dizininize taşıyın.
- Linux: bash komut dosyası yükleyicisindeki talimatları uygulayın.
Bir terminal penceresi açıp aşağıdaki komutu girerek Ollama'nın yüklü olduğunu doğrulayın:
ollama --version
Şuna benzer bir yanıt görürsünüz: ollama version is #.#.##
. Bu sonucu almazsanız Ollama yürütülebilir dosyasının işletim sistemi yolunuza eklendiğinden emin olun.
Ollama'da Gemma'yı yapılandırma
Ollama yükleme paketi varsayılan olarak herhangi bir model içermez. pull
komutunu kullanarak bir model indirebilirsiniz.
Ollama'da Gemma'yı yapılandırmak için:
Bir terminal penceresi açıp aşağıdaki komutu girerek varsayılan Gemma 2 varyantını indirip yapılandırın:
ollama pull gemma2
İndirme işlemini tamamladıktan sonra aşağıdaki komutu kullanarak modelin kullanılabilir olduğunu onaylayabilirsiniz:
ollama list
Ollama, varsayılan olarak 9 milyar parametre, 4 bitlik kesirli (Q4_0) Gemma model varyantını indirir. Parametre boyutu belirterek Gemma modelinin diğer boyutlarını da indirip kullanabilirsiniz.
Modeller <model_name>:<tag>
olarak belirtilir. Gemma 2, 2 milyar parametre modeli için gemma2:2b
değerini girin. 27 milyar parametre modeli için gemma2:27b
yazın. Gemma 2 ve Gemma dahil olmak üzere mevcut etiketleri Ollama web sitesinde bulabilirsiniz.
Yanıt oluşturma
Ollama'ya bir Gemma modeli yüklemeyi tamamladığınızda, Ollama'nın komut satırı arayüzünü kullanarak run
komutunu kullanarak hemen yanıt oluşturabilirsiniz.
Ollama, modele erişmek için bir web hizmeti de yapılandırır. Bu hizmeti curl
komutunu kullanarak test edebilirsiniz.
Yanıtı komut satırından oluşturmak için:
Terminal penceresinde aşağıdaki komutu girin:
ollama run gemma2 "roses are red"
Ollama yerel web hizmetini kullanarak yanıt oluşturmak için:
Terminal penceresinde aşağıdaki komutu girin:
curl http://localhost:11434/api/generate -d '{\ "model": "gemma2",\ "prompt":"roses are red"\ }'
Ayarlanmış Gemma modelleri
Ollama, hemen kullanıma hazır, GGUF biçiminde kesikli hale getirilmiş ve kaydedilmiş bir dizi resmi Gemma model varyantı sağlar. GGUF biçimine dönüştürerek kendi ayarlanmış Gemma modellerinizi Ollama ile kullanabilirsiniz. Ollama, ayarlanmış modelleri Model Dosyası biçiminden GGUF'ye dönüştürmek için bazı işlevler içerir. Ayarlanmış modelinizi GGUF'ye dönüştürme hakkında daha fazla bilgi için Ollama README dosyasını inceleyin.
Sonraki adımlar
Gemma'yı Ollama ile çalıştırdıktan sonra Gemma'nın üretken yapay zeka özellikleriyle denemeler yapmaya ve çözümler oluşturmaya başlayabilirsiniz. Ollama'nın komut satırı arayüzü, komut dosyası çözümleri oluşturmak için yararlı olabilir. Ollama yerel web hizmeti arayüzü, deneysel ve düşük hacimli kullanım uygulamaları oluşturmak için yararlı olabilir.
- Yerel olarak çalışan bir kişisel kod asistanı oluşturmak için Ollama web hizmetini kullanarak entegrasyonu deneyin.
- Gemma modelinde nasıl hassas ayar yapacağınızı öğrenin.
- Google Cloud Run hizmetleri aracılığıyla Gemma'yı Ollama ile nasıl çalıştıracağınızı öğrenin.
- Gemma'yı Google Cloud ile nasıl çalıştıracağınız hakkında bilgi edinin.