Gemma 4 がリリースされました。テキスト、音声、画像の入力に対応し、最大 256, 000 トークンの長いコンテキスト ウィンドウを備えています。
詳細
フィードバックを送信
Llama.cpp で Gemma を実行する
llama.cpp は、効率的なローカル推論用に設計された人気のオープンソース ライブラリです。
クイック スタート
llama.cpp のインストール 済みバージョン
コマンドの例:
# Download and run a model directly from Hugging Face
llama-cli -hf ggml-org/gemma-4-E2B-it-GGUF --prompt "Write a poem about the Kraken."
# Use System Prompt
llama-cli -hf ggml-org/gemma-4-E2B-it-GGUF -sys "You are Hong Gildong." -p "Who are you?"
モデルを使いやすいインターフェースで実行するには、次のコマンドでサーバーを起動します。
llama-server -hf ggml-org/gemma-4-E2B-it-GGUF
これにより、インターフェース(http://localhost:8080)または OpenAI エンドポイント(http://localhost:8080/v1)からモデルにアクセスできるサーバーが作成されます。
Gemma で llama.cpp を使用する方法の詳細と手順については、公式リポジトリをご覧ください。
GitHub の llama.cpp
フィードバックを送信
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンス により使用許諾されます。コードサンプルは Apache 2.0 ライセンス により使用許諾されます。詳しくは、Google Developers サイトのポリシー をご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2026-04-17 UTC。
ご意見をお聞かせください
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2026-04-17 UTC。"],[],[]]