Cihaz üzerinde makine öğrenimi için verimli dönüşüm, çalışma zamanı ve optimizasyon.
LiteRT sadece yeni bir ürün değil, aynı zamanda dünyanın en yaygın kullanılan makine öğrenimi çalışma zamanının yeni nesli. Her gün kullandığınız uygulamalara güç vererek milyarlarca cihazda düşük gecikme süresi ve yüksek gizlilik sağlar.

En önemli Google uygulamaları tarafından güvenle kullanılır

100.000'den fazla uygulama, dünya genelinde milyarlarca kullanıcı

LiteRT'de Öne Çıkanlar

LiteRT aracılığıyla dağıtma

Eğitimden cihaz üzerinde dağıtıma kadar derin öğrenme iş akışınızı kolaylaştırın.
.tflite uzantılı önceden eğitilmiş modelleri kullanın veya PyTorch, JAX ya da TensorFlow modellerini .tflite uzantılı modellere dönüştürün.
Eğitim sonrası modellerinizi nicelleştirmek için LiteRT optimizasyon araç setini kullanın.
Modelinizi LiteRT ile dağıtın ve uygulamanız için en uygun hızlandırıcıyı seçin.

Geliştirme yolunuzu seçme

Yüksek performanslı mobil uygulamalardan kaynak açısından sınırlı IoT cihazlarına kadar her yerde yapay zeka dağıtmak için LiteRT'yi kullanın.
Platformlar (Android, masaüstü, web) arasında gelişmiş performanstan ve birleşik API'lerden yararlanmak için LiteRT'ye geçiş yapın.
Cihaz üzerinde görme veya ses deneyimleri uygulamak isteyen bir PyTorch modeline sahip olmak
Gemma gibi optimize edilmiş açık ağırlıklı üretken yapay zeka modellerini veya başka bir açık ağırlıklı modeli kullanarak cihaz üzerinde gelişmiş chatbot'lar oluşturma.
Özel modeller oluşturma veya en yüksek performans için donanıma özel derin CPU/GPU/NPU optimizasyonları gerçekleştirme.

Örnekler, modeller ve demo

Önceden eğitilmiş, kullanıma hazır üretken yapay zeka modelleri.
LiteRT kullanılarak cihaz üzerinde makine öğrenimi/üretken yapay zeka kullanım alanlarının sergilendiği bir galeri.

Bloglar ve Duyurular

LiteRT ekibinin en son duyurularından, teknik ayrıntılı incelemelerinden ve performans karşılaştırmalarından haberdar olun.
Yüksek performanslı dağıtım için TFLite'tan geliştirilen Google'ın birleşik cihaz üzerinde ML çerçevesi.
Yüksek verimli yapay zeka için NPU hızlandırma desteğini MediaTek yonga setlerine genişletme
Qualcomm sinirsel işlem birimlerinde üretken yapay zeka için çığır açan performansın kilidini açma.
Otomatik donanım seçimi ve eşzamansız yürütme için CompiledModel API'yi kullanıma sunuyoruz.
LiteRT-LM'yi kullanarak giyilebilir cihazlarda ve tarayıcı tabanlı platformlarda dil modelleri dağıtın.
Sınırdaki dil modelleri için RAG, çok formatlılık ve işlev çağrısı ile ilgili en son analizler

Topluluğa Katılın

Doğrudan projeye katkıda bulunun ve temel geliştiricilerle ortak çalışın.
Hugging Face Hub'da optimize edilmiş açık ağırlıklı modellere erişin.
Cihaz üzerinde makine öğrenimi çalışmalarınızı bir üst seviyeye taşımaya hazır mısınız? Belgeleri inceleyip hemen geliştirmeye başlayın.