Effiziente Konvertierung, Laufzeit und Optimierung für On-Device-Machine-Learning.
LiteRT ist nicht nur neu, sondern die nächste Generation der weltweit am häufigsten eingesetzten Laufzeitumgebung für maschinelles Lernen. Sie ist die Grundlage für die Apps, die Sie täglich verwenden, und bietet auf Milliarden von Geräten eine niedrige Latenz und einen hohen Datenschutz.

Wird von den wichtigsten Google-Apps verwendet

Über 100.000 Apps, Milliarden von Nutzern weltweit

LiteRT-Highlights

Über LiteRT bereitstellen

Vortrainierte .tflite-Modelle verwenden oder PyTorch-, JAX- oder TensorFlow-Modelle in .tflite konvertieren
Optional: Modell quantisieren
Gewünschten Beschleuniger auswählen und in LiteRT ausführen

Beispiele, Modelle und Demo

In Anleitungen wird anhand von vollständigen End-to-End-Beispielen gezeigt, wie Sie LiteRT verwenden.
Vortrainierte, sofort einsatzbereite Modelle für generative KI.
Eine Galerie mit Anwendungsfällen für On-Device-ML/GenAI