Vortrainierte Modelle für LiteRT

Es gibt eine Vielzahl bereits trainierter Open-Source-Modelle, die Sie um viele ML-Aufgaben zu erledigen. Mit vortrainierten LiteRT-Modellen maschinelles Lernen hinzufügen Funktionen für mobile und Edge-Geräte-Apps schnell hinzufügen, um ein Modell zu erstellen und zu trainieren. Dieser Leitfaden hilft Ihnen dabei, für LiteRT-Modelle.

Auf Kaggle können Sie eine große Auswahl an Modellen durchsuchen. Modelle.

Modell für Ihre Anwendung finden

Es kann schwierig sein, ein vorhandenes LiteRT-Modell für Ihren Anwendungsfall zu finden je nachdem, was Sie erreichen möchten. Hier sind ein paar empfohlene Methoden, , um Modelle zur Verwendung mit LiteRT zu finden:

Beispiel:Die schnellste Möglichkeit, Modelle mit TensorFlow zu finden und zu verwenden LiteRT ist das Durchsuchen von LiteRT Beispiele finden Sie Modelle, die eine Aufgabe ausführen, die Ihrem Anwendungsfall ähnelt. Dieser kurze Beispielkatalog bietet Modelle für gängige Anwendungsfälle mit Erläuterungen zu den Modellen und Beispielcode, um Ihnen den Einstieg zu erleichtern und .

Nach Dateneingabetyp:Neben Beispielen, die Ihrem Anwendungsfall ähneln, Eine weitere Möglichkeit, Modelle für den eigenen Gebrauch zu entdecken, besteht darin, die Art der Daten zu berücksichtigen die Sie verarbeiten möchten, z. B. Audio-, Text-, Bild- oder Videodaten. Maschine Lernmodelle häufig für die Verwendung mit einem dieser Datentypen entwickelt, Wenn Sie nach Modellen suchen, die den gewünschten Datentyp verarbeiten, welche Modelle in Betracht gezogen werden müssen.

Die folgende Liste enthält Links zu LiteRT-Modellen auf Kaggle Modelle für häufige Anwendungsfälle:

Ähnliche Modelle auswählen

Wenn Ihre Anwendung einem gängigen Anwendungsfall wie der Bildklassifizierung oder zwischen mehreren TensorFlow-Modellen Lite-Modelle mit unterschiedlicher Binärgröße, Dateneingabegröße, Inferenzgeschwindigkeit Bewertungen der Vorhersagegenauigkeit. Bei der Entscheidung zwischen mehreren Modellen sollten Sie Ihre Optionen zunächst anhand der größten Einschränkung eingrenzen: der Größe der Datenmodell, Datengröße, Inferenzgeschwindigkeit oder Genauigkeit.

Wenn Sie sich nicht sicher sind, was Ihre größte Einschränkung ist, nehmen wir an, dass es die Größe ist. des Modells und wählen Sie das kleinste verfügbare Modell aus. Die Auswahl eines kleinen Modells haben Sie die größte Flexibilität hinsichtlich der Geräte, auf denen Sie Modell bereitstellen und ausführen. Kleinere Modelle produzieren in der Regel auch Inferenzen und schnellere Vorhersagen führen in der Regel zu besseren Endanwendenden. User Experiences. Kleinere Modelle haben in der Regel niedrigere Genauigkeitsraten. Daher benötigen Sie möglicherweise um größere Modelle auszuwählen, wenn die Vorhersagegenauigkeit Ihr Hauptanliegen ist.

Quellen für Modelle

LiteRT verwenden Beispiele und Kaggle Models als Ihre ersten Ziele für die Suche und Auswahl von Modellen zur Verwendung mit TensorFlow Lite. Diese Quellen enthalten in der Regel aktuelle, ausgewählte Modelle für die Verwendung mit LiteRT und fügen häufig Beispielcode zur Beschleunigung Ihres und Entwicklungsprozessen.

TensorFlow-Modelle

Es ist möglich, reguläre TensorFlow-Modelle in TensorFlow zu konvertieren. Lite-Format. Weitere Informationen zum Konvertieren von Modellen finden Sie in der Dokumentation zu TensorFlow Lite Converter-Dokumentation lesen. Sie finden TensorFlow-Modelle Kaggle Models und im TensorFlow Model Garten.