Vortrainierte TensorFlow- und Keras-Modelle für LiteRT

Es gibt eine Vielzahl von bereits trainierten Open-Source-Modellen, die Sie sofort mit LiteRT für viele Machine-Learning-Aufgaben verwenden können. Mit vortrainierten LiteRT-Modellen können Sie Ihrer Anwendung für Mobilgeräte und Edge-Geräte schnell Funktionen für maschinelles Lernen hinzufügen, ohne ein Modell erstellen und trainieren zu müssen. In diesem Leitfaden erfahren Sie, wie Sie trainierte Modelle für die Verwendung mit LiteRT finden und auswählen.

Sie können sich eine große Auswahl an Modellen auf Kaggle Models ansehen.

Modell für Ihre Anwendung finden

Je nachdem, was Sie erreichen möchten, kann es schwierig sein, ein vorhandenes LiteRT-Modell für Ihren Anwendungsfall zu finden. Hier sind einige empfohlene Möglichkeiten, Modelle für die Verwendung mit LiteRT zu finden:

Beispiel: Die schnellste Möglichkeit, Modelle mit TensorFlow Lite zu finden und zu verwenden, besteht darin, den Abschnitt LiteRT-Beispiele zu durchsuchen, um Modelle zu finden, die eine Aufgabe ausführen, die Ihrem Anwendungsfall ähnelt. Dieser kurze Katalog mit Beispielen bietet Modelle für gängige Anwendungsfälle mit Erklärungen der Modelle und Beispielcode, damit Sie sie ausführen und verwenden können.

Nach Dateneingabetyp: Neben der Suche nach Beispielen, die Ihrem Anwendungsfall ähneln, können Sie auch nach Modellen suchen, die den Datentyp verarbeiten, den Sie verwenden möchten, z. B. Audio-, Text-, Bild- oder Videodaten. Machine-Learning-Modelle sind häufig für die Verwendung mit einem dieser Datentypen konzipiert. Wenn Sie also nach Modellen suchen, die den gewünschten Datentyp verarbeiten können, können Sie die Auswahl der infrage kommenden Modelle eingrenzen.

In den folgenden Listen finden Sie Links zu LiteRT-Modellen auf Kaggle Models für häufige Anwendungsfälle:

Zwischen ähnlichen Modellen wählen

Wenn Ihre Anwendung einem gängigen Anwendungsfall wie der Bildklassifizierung oder Objekterkennung folgt, müssen Sie möglicherweise zwischen mehreren TensorFlow Lite-Modellen mit unterschiedlicher Binärgröße, Dateneingabegröße, Inferenzgeschwindigkeit und Vorhersagegenauigkeit wählen. Wenn Sie sich zwischen mehreren Modellen entscheiden müssen, sollten Sie Ihre Optionen zuerst anhand der einschränkendsten Bedingung eingrenzen: Modellgröße, Datengröße, Inferenzgeschwindigkeit oder Genauigkeit.

Wenn Sie nicht sicher sind, welche Einschränkung am stärksten ins Gewicht fällt, gehen Sie davon aus, dass es die Größe des Modells ist, und wählen Sie das kleinste verfügbare Modell aus. Wenn Sie ein kleines Modell auswählen, haben Sie die größte Flexibilität in Bezug auf die Geräte, auf denen Sie das Modell erfolgreich bereitstellen und ausführen können. Kleinere Modelle liefern in der Regel auch schnellere Inferenz-Ergebnisse und schnellere Vorhersagen führen im Allgemeinen zu einer besseren Nutzererfahrung. Kleinere Modelle haben in der Regel eine geringere Genauigkeit. Wenn die Vorhersagegenauigkeit Ihr Hauptanliegen ist, sollten Sie daher größere Modelle auswählen.

Quellen für Modelle

Verwenden Sie den Abschnitt LiteRT-Beispiele und Kaggle-Modelle, um Modelle für die Verwendung mit TensorFlow Lite zu finden und auszuwählen. Diese Quellen enthalten in der Regel aktuelle, kuratierte Modelle für die Verwendung mit LiteRT und häufig auch Beispielcode, um den Entwicklungsprozess zu beschleunigen.

TensorFlow-Modelle

Es ist möglich, reguläre TensorFlow-Modelle in das TensorFlow Lite-Format zu konvertieren. Weitere Informationen zum Konvertieren von Modellen finden Sie in der Dokumentation zum TensorFlow Lite Converter. TensorFlow-Modelle finden Sie unter Kaggle Models und im TensorFlow Model Garden.