Effiziente Konvertierung, Laufzeit und Optimierung für On-Device-Machine-Learning.
LiteRT ist nicht nur neu, sondern die nächste Generation der weltweit am häufigsten eingesetzten Laufzeitumgebung für maschinelles Lernen. Sie ist die Grundlage für die Apps, die Sie täglich verwenden, und bietet auf Milliarden von Geräten eine niedrige Latenz und einen hohen Datenschutz.

Wird von den wichtigsten Google-Apps verwendet

Über 100.000 Apps, Milliarden von Nutzern weltweit

LiteRT-Highlights

Über LiteRT bereitstellen

Optimieren Sie Ihren Deep-Learning-Workflow vom Training bis zur Bereitstellung auf dem Gerät.
Verwenden Sie vortrainierte .tflite-Modelle oder konvertieren Sie PyTorch-, JAX- oder TensorFlow-Modelle in .tflite.
Verwenden Sie das LiteRT-Optimierungstoolkit, um Ihre Modelle nach dem Training zu quantisieren.
Stellen Sie Ihr Modell mit LiteRT bereit und wählen Sie den optimalen Beschleuniger für Ihre App aus.

Entwicklungspfad auswählen

Mit LiteRT können Sie KI überall bereitstellen – von leistungsstarken mobilen Apps bis hin zu ressourcenbeschränkten IoT-Geräten.
Umstellung auf LiteRT, um die verbesserte Leistung und einheitliche APIs auf allen Plattformen (Android, Desktop, Web) zu nutzen.
Sie haben ein PyTorch-Modell und möchten On-Device-Vision- oder Audiofunktionen implementieren.
Erstellen Sie anspruchsvolle On-Device-Chatbots mit optimierten GenAI-Modellen mit offenem Gewicht wie Gemma oder einem anderen Modell mit offenem Gewicht.
Benutzerdefinierte Modelle erstellen oder hardwarebezogene CPU-/GPU-/NPU-Optimierungen für Spitzenleistung durchführen.

Beispiele, Modelle und Demo

Vortrainierte, sofort einsatzbereite Modelle für generative KI.
Eine Galerie mit On-Device-ML-/GenAI-Anwendungsfällen mit LiteRT.

Blogs und Ankündigungen

Bleiben Sie mit den neuesten Ankündigungen, ausführlichen technischen Informationen und Leistungsbenchmarks des LiteRT-Teams auf dem Laufenden.
Das einheitliche On-Device-ML-Framework von Google, das sich aus TFLite für die leistungsstarke Bereitstellung entwickelt hat.
Ausweitung der Unterstützung für die NPU-Beschleunigung auf MediaTek-Chipsets für hocheffiziente KI.
Bahnbrechende Leistung für generative KI auf Qualcomm-NPU.
Einführung der CompiledModel API für die automatische Hardwareauswahl und asynchrone Ausführung.
Mit LiteRT-LM können Sie Sprachmodelle auf Wearables und browserbasierten Plattformen bereitstellen.
Neueste Informationen zu RAG, Multimodalität und Funktionsaufrufen für Edge-Sprachmodelle

Teil der Community werden

Direkt zum Projekt beitragen und mit den Hauptentwicklern zusammenarbeiten
Sie haben Zugriff auf optimierte Open-Weight-Modelle im Hugging Face Hub.
Sind Sie bereit, On-Device ML auf die nächste Stufe zu heben? Sehen Sie sich die Dokumentation an und beginnen Sie noch heute mit der Entwicklung.