Pembuatan konten di perangkat dengan Gemma

Anda dapat menjalankan model Gemma sepenuhnya di perangkat dengan MediaPipe LLM Inference API. LLM Inference API berfungsi sebagai wrapper untuk model bahasa besar sehingga Anda dapat menjalankan model Gemma di perangkat untuk tugas pembuatan teks ke teks yang umum seperti pengambilan informasi, pembuatan draf email, dan perangkuman dokumen.

Coba LLM Inference API dengan MediaPipe Studio, aplikasi berbasis web untuk mengevaluasi dan menyesuaikan model di perangkat.

LLM Inference API tersedia di platform berikut:

Untuk mempelajari lebih lanjut, lihat dokumentasi Inferensi LLM MediaPipe.