TensorFlow Lite-Modell-Builder

Übersicht

Die TensorFlow Lite Model Maker-Bibliothek vereinfacht das Training eines TensorFlow Lite-Modell mit benutzerdefiniertem Dataset. Dabei wird Lerntransfer eingesetzt, und die Trainingszeit zu verkürzen.

Unterstützte Aufgaben

Die Model Maker-Bibliothek unterstützt derzeit die folgenden ML-Aufgaben. Klicken Sie auf das Links unten finden Sie Anleitungen zum Trainieren des Modells.

Unterstützte Aufgaben Dienstprogramm
Bildklassifizierung: tutorial, api Bilder in vordefinierte Kategorien einteilen.
Objekterkennung: tutorial, api Erkennt Objekte in Echtzeit.
Textklassifizierung: tutorial, api Text in vordefinierte Kategorien unterteilen
BERT-Antwort auf die Frage: tutorial, api Mit BERT die Antwort auf eine Frage in einem bestimmten Kontext finden
Audioklassifizierung: tutorial, api Sie können Audioinhalte in vordefinierte Kategorien einteilen.
Empfehlung: demo, api Empfehlen Sie Artikel basierend auf den Kontextinformationen für das Geräteszenario.
Sucher: tutorial, api Suchen Sie in einer Datenbank nach ähnlichem Text oder Bild.

Wenn Ihre Aufgaben nicht unterstützt werden, nutzen Sie TensorFlow, um ein TensorFlow-Modell neu zu trainieren mit Lerntransfers (anhand von Anleitungen wie Bilder, Text, Audio) oder von Grund auf trainieren und dann in TensorFlow konvertieren Lite-Modell

End-to-End-Beispiel

Mit dem Modell-Erstellungstool können Sie ein TensorFlow Lite-Modell mit benutzerdefinierten Datasets nur ein paar Zeilen Code schreiben. Hier sehen Sie als Beispiel die Schritte zum Trainieren eines Klassifizierungsmodells.

from tflite_model_maker import image_classifier
from tflite_model_maker.image_classifier import DataLoader

# Load input data specific to an on-device ML app.
data = DataLoader.from_folder('flower_photos/')
train_data, test_data = data.split(0.9)

# Customize the TensorFlow model.
model = image_classifier.create(train_data)

# Evaluate the model.
loss, accuracy = model.evaluate(test_data)

# Export to Tensorflow Lite model and label file in `export_dir`.
model.export(export_dir='/tmp/')

Weitere Informationen finden Sie im Leitfaden zur Bildklassifizierung.

Installation

Es gibt zwei Möglichkeiten, Model Maker zu installieren.

  • Installieren Sie ein vorgefertigtes pip-Paket.
pip install tflite-model-maker

Wenn Sie die Nightly-Version installieren möchten, führen Sie den folgenden Befehl aus:

pip install tflite-model-maker-nightly
  • Klonen Sie den Quellcode aus GitHub und installieren Sie ihn.
git clone https://github.com/tensorflow/examples
cd examples/tensorflow_examples/lite/model_maker/pip_package
pip install -e .

TensorFlow Lite Model Maker hängt von TensorFlow pip ab Paket. Informationen zu GPU-Treibern finden Sie unter zum GPU-Leitfaden von TensorFlow oder Installationsanleitung.

Python API-Referenz

Die öffentlichen APIs von Model Maker finden Sie in der API Referenz.