Vortrainierte Modelle für TensorFlow Lite

Es gibt eine Vielzahl bereits trainierter Open-Source-Modelle, die Sie sofort mit TensorFlow Lite verwenden können, um viele Aufgaben des maschinellen Lernens zu erledigen. Mit vortrainierten TensorFlow Lite-Modellen können Sie Ihrer mobilen und Edge-Geräteanwendung schnell ML-Funktionen hinzufügen, ohne ein Modell erstellen und trainieren zu müssen. Dieser Leitfaden hilft Ihnen dabei, trainierte Modelle zur Verwendung mit TensorFlow Lite zu finden und zu entscheiden.

Auf Kaggle-Modellen steht Ihnen eine große Auswahl an Modellen zur Verfügung.

Modell für Ihre Anwendung finden

Es kann schwierig sein, ein vorhandenes TensorFlow Lite-Modell für Ihren Anwendungsfall zu finden, je nachdem, was Sie erreichen möchten. Hier sind einige empfohlene Möglichkeiten, um Modelle zur Verwendung mit TensorFlow Lite zu finden:

Beispiel:Am schnellsten finden und verwenden Sie Modelle mit TensorFlow Lite, wenn Sie im Abschnitt TensorFlow Lite-Beispiele nach Modellen suchen, die eine Aufgabe ausführen, die Ihrem Anwendungsfall ähnelt. Dieser kurze Beispielkatalog enthält Modelle für gängige Anwendungsfälle mit Erläuterungen zu den Modellen und Beispielcode, um Ihnen den Einstieg zu erleichtern und sie zu verwenden.

Nach Dateneingabetyp:Neben der Betrachtung von Beispielen, die Ihrem Anwendungsfall ähneln, können Sie auch Modelle für Ihre eigene Verwendung ermitteln, indem Sie die Art der zu verarbeitenden Daten berücksichtigen, z. B. Audio-, Text-, Bilder- oder Videodaten. Modelle für maschinelles Lernen werden häufig für die Verwendung mit einem dieser Datentypen entwickelt. Wenn Sie also nach Modellen suchen, die den gewünschten Datentyp verarbeiten, können Sie die zu berücksichtigenden Modelle eingrenzen.

Im Folgenden finden Sie Links zu TensorFlow Lite-Modellen in Kaggle-Modellen für gängige Anwendungsfälle:

Ähnliche Modelle auswählen

Wenn Ihre Anwendung einem gängigen Anwendungsfall wie der Bildklassifizierung oder Objekterkennung entspricht, entscheiden Sie möglicherweise zwischen mehreren TensorFlow Lite-Modellen mit unterschiedlicher Binärgröße, Dateneingabegröße, Inferenzgeschwindigkeit und Vorhersagegenauigkeit. Wenn Sie sich zwischen einer Anzahl von Modellen entscheiden, sollten Sie die Optionen zuerst anhand der am stärksten einschränkenden Einschränkung eingrenzen: Modellgröße, Datengröße, Inferenzgeschwindigkeit oder Genauigkeit.

Wenn Sie sich nicht sicher sind, welche Einschränkung am stärksten ist, nehmen Sie an, dass es sich um die Größe des Modells handelt, und wählen Sie das kleinste verfügbare Modell aus. Die Auswahl eines kleinen Modells bietet die größte Flexibilität hinsichtlich der Geräte, auf denen Sie das Modell erfolgreich bereitstellen und ausführen können. Kleinere Modelle führen in der Regel auch zu schnelleren Inferenzen, während schnellere Vorhersagen im Allgemeinen zu einem besseren Endnutzererlebnis führen. Kleinere Modelle haben in der Regel niedrigere Genauigkeitsraten. Daher müssen Sie möglicherweise größere Modelle auswählen, wenn die Vorhersagegenauigkeit Ihr Hauptanliegen ist.

Quellen für Modelle

Verwenden Sie den Abschnitt TensorFlow Lite-Beispiele und Kaggle-Modelle als erste Ziele, um Modelle zur Verwendung mit TensorFlow Lite zu finden und auszuwählen. Diese Quellen enthalten in der Regel aktuelle, kuratierte Modelle für die Verwendung mit TensorFlow Lite und enthalten häufig Beispielcode, um den Entwicklungsprozess zu beschleunigen.

TensorFlow-Modelle

Reguläre TensorFlow-Modelle können in das TensorFlow-Lite-Format konvertiert werden. Weitere Informationen zum Konvertieren von Modellen finden Sie in der TensorFlow Lite Converter-Dokumentation. Sie finden TensorFlow-Modelle unter Kaggle Models und im TensorFlow Model Garden.