Edge AI Google
AI di perangkat untuk aplikasi seluler, web, dan tersemat
Solusi di perangkat dari model hingga pipeline
Percepat deployment ML, optimalkan pipeline, dan akses LLM yang canggih dengan mudah
Stack end-to-end yang menampilkan komponen tingkat tinggi dan rendah
Apa yang baru di I/O?
MediaPipe
Membuat solusi ML yang inovatif di perangkat dengan mudah
Menyelesaikan tantangan umum dengan MediaPipe
TensorFlow Lite
Library multi-framework yang ringan untuk men-deploy model di perangkat seluler, web, dan mikrokontroler.
AI generatif, yang berjalan di perangkat
API Inferensi LLM MediaPipe
Jalankan LLM sepenuhnya di perangkat dan melakukan berbagai tugas, seperti membuat teks, mengambil informasi dalam bentuk natural language, dan meringkas dokumen. API ini menyediakan dukungan bawaan untuk beberapa model bahasa besar text-to-text, sehingga Anda dapat menerapkan model AI generatif di perangkat terbaru ke aplikasi dan produk Anda. Pelajari lebih lanjut
API Generatif Torch
Buat LLM berperforma tinggi di PyTorch, lalu konversikan agar berjalan di perangkat menggunakan runtime TensorFlow Lite (TFLite). Pelajari lebih lanjut.
Nano Gemini
Akses model Gemini kami yang paling efisien untuk tugas di perangkat melalui Android AICore. Segera hadir di Chrome.
Mengapa men-deploy ML pada perangkat edge?
Latensi
Lewati perjalanan dua arah server untuk pemrosesan media yang mudah, cepat, dan real-time.
Privasi
Lakukan inferensi secara lokal, tanpa data sensitif yang keluar dari perangkat.
Biaya
Gunakan resource komputasi di perangkat dan hemat biaya server.
Ketersediaan offline
Tidak ada koneksi jaringan, tidak masalah.