Edge AI Google

AI di perangkat untuk aplikasi seluler, web, dan tersemat

AI generatif, yang berjalan di perangkat

API Inferensi LLM MediaPipe

Jalankan LLM sepenuhnya di perangkat dan melakukan berbagai tugas, seperti membuat teks, mengambil informasi dalam bentuk natural language, dan meringkas dokumen. API ini menyediakan dukungan bawaan untuk beberapa model bahasa besar text-to-text, sehingga Anda dapat menerapkan model AI generatif di perangkat terbaru ke aplikasi dan produk Anda. Pelajari lebih lanjut

API Generatif Torch

Buat LLM berperforma tinggi di PyTorch, lalu konversikan agar berjalan di perangkat menggunakan runtime TensorFlow Lite (TFLite). Pelajari lebih lanjut.

Nano Gemini

Akses model Gemini kami yang paling efisien untuk tugas di perangkat melalui Android AICore. Segera hadir di Chrome.

Mengapa men-deploy ML pada perangkat edge?

Ikon speedometer

Latensi

Lewati perjalanan dua arah server untuk pemrosesan media yang mudah, cepat, dan real-time.

Ikon gembok

Privasi

Lakukan inferensi secara lokal, tanpa data sensitif yang keluar dari perangkat.

Tidak Ada Uang

Biaya

Gunakan resource komputasi di perangkat dan hemat biaya server.

Tidak ada Wi-Fi

Ketersediaan offline

Tidak ada koneksi jaringan, tidak masalah.