生成と調整の例については、Gemma クックブック リポジトリをご覧ください。
詳細
Gemma を使用したオンデバイス生成
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
MediaPipe LLM Inference API を使用すると、Gemma モデルをデバイス上で完全に実行できます。LLM Inference API は大規模言語モデルのラッパーとして機能し、情報の取得、メールの下書き、ドキュメントの要約などの一般的なテキストからテキストの生成タスクのためにデバイス上で Gemma モデルを実行できます。
デバイス上のモデルを評価してカスタマイズするためのウェブベースのアプリケーションである MediaPipe Studio で LLM Inference API をお試しください。
LLM Inference API は、次のプラットフォームで利用できます。
詳しくは、MediaPipe LLM 推論のドキュメントをご覧ください。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2024-04-09 UTC。
[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"必要な情報がない"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"複雑すぎる / 手順が多すぎる"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"最新ではない"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"翻訳に関する問題"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"サンプル / コードに問題がある"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"その他"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"わかりやすい"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"問題の解決に役立った"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"その他"
}]