Konversi, runtime, dan pengoptimalan yang efisien untuk machine learning di perangkat.
LiteRT bukan hanya baru, tetapi juga merupakan runtime machine learning generasi berikutnya yang paling banyak di-deploy di dunia. Layanan ini mendukung aplikasi yang Anda gunakan setiap hari, memberikan latensi rendah dan privasi tinggi di miliaran perangkat.

Dipercaya oleh aplikasi Google yang paling penting

Lebih dari 100 ribu aplikasi, miliaran pengguna global

Sorotan LiteRT

Men-deploy melalui LiteRT

Sederhanakan alur kerja deep learning Anda dari pelatihan hingga deployment di perangkat.
Gunakan model terlatih .tflite atau konversi model PyTorch, JAX, atau TensorFlow ke .tflite.
Gunakan toolkit pengoptimalan LiteRT untuk menguantisasi model Anda setelah pelatihan.
Deploy model Anda dengan LiteRT dan pilih akselerator yang optimal untuk aplikasi Anda.

Memilih Jalur Pengembangan Anda

Gunakan LiteRT untuk men-deploy AI di mana saja—mulai dari aplikasi seluler berperforma tinggi hingga perangkat IoT dengan keterbatasan resource.
Beralih ke LiteRT untuk memanfaatkan peningkatan performa dan API terpadu di seluruh platform (Android, Desktop, Web).
Memiliki model PyTorch dan ingin menerapkan pengalaman audio atau visi di perangkat.
Membuat chatbot canggih di perangkat menggunakan model AI generatif dengan bobot terbuka yang dioptimalkan seperti Gemma atau model dengan bobot terbuka lainnya.
Membuat model kustom atau melakukan pengoptimalan CPU/GPU/NPU khusus hardware yang mendalam untuk performa puncak.

Contoh, model, dan demo

Model AI Generatif siap pakai yang telah dilatih.
Galeri yang menampilkan kasus penggunaan ML/AI Generatif di perangkat menggunakan LiteRT.

Blog dan Pengumuman

Dapatkan info terbaru tentang pengumuman, analisis teknis mendalam, dan tolok ukur performa dari tim LiteRT.
Framework ML di perangkat terpadu Google, yang berkembang dari TFLite untuk deployment berperforma tinggi.
Memperluas dukungan akselerasi NPU ke chipset MediaTek untuk AI berefisiensi tinggi.
Mendapatkan performa terobosan untuk AI generatif di Unit Pemrosesan Neural Qualcomm.
Memperkenalkan CompiledModel API untuk pemilihan hardware otomatis dan eksekusi asinkron.
Men-deploy model bahasa di platform berbasis browser dan perangkat wearable menggunakan LiteRT-LM.
Insight terbaru tentang RAG, multimodalitas, dan panggilan fungsi untuk model bahasa edge

Bergabung dengan Komunitas

Berkontribusi langsung pada project dan berkolaborasi dengan developer inti.
Akses model open-weight yang dioptimalkan di Hugging Face Hub.
Siap meningkatkan ML di perangkat Anda? Jelajahi dokumentasi dan mulai membangun sekarang.