Gemma を使用したオンデバイス生成

<ph type="x-smartling-placeholder">

MediaPipe LLM 推論機能を使用することで、Gemma モデルを完全にデバイス上で実行できます。 API。「 LLM 推論 API は大規模言語モデルのラッパーとして機能し、 情報などの一般的なテキストからテキストの生成タスク向けのオンデバイス Gemma モデル 文書作成、ドキュメント要約といった ML のワークロードです

MediaPipe で LLM Inference API を試す Studio、 デバイス上のモデルを評価、カスタマイズするためのウェブベースのアプリケーション

LLM Inference API は、次のプラットフォームで使用できます。

詳細については、MediaPipe LLM Inference を参照 ドキュメントをご覧ください