Übersicht
Die TensorFlow Lite Model Maker-Bibliothek vereinfacht das Training eines TensorFlow Lite-Modell mit benutzerdefiniertem Dataset. Dabei wird Lerntransfer eingesetzt, und die Trainingszeit zu verkürzen.
Unterstützte Aufgaben
Die Model Maker-Bibliothek unterstützt derzeit die folgenden ML-Aufgaben. Klicken Sie auf das Links unten finden Sie Anleitungen zum Trainieren des Modells.
Unterstützte Aufgaben | Dienstprogramm |
---|---|
Bildklassifizierung: tutorial, api | Bilder in vordefinierte Kategorien einteilen. |
Objekterkennung: tutorial, api | Erkennt Objekte in Echtzeit. |
Textklassifizierung: tutorial, api | Text in vordefinierte Kategorien unterteilen |
BERT-Antwort auf die Frage: tutorial, api | Mit BERT die Antwort auf eine Frage in einem bestimmten Kontext finden |
Audioklassifizierung: tutorial, api | Sie können Audioinhalte in vordefinierte Kategorien einteilen. |
Empfehlung: demo, api | Empfehlen Sie Artikel basierend auf den Kontextinformationen für das Geräteszenario. |
Sucher: tutorial, api | Suchen Sie in einer Datenbank nach ähnlichem Text oder Bild. |
Wenn Ihre Aufgaben nicht unterstützt werden, nutzen Sie TensorFlow, um ein TensorFlow-Modell neu zu trainieren mit Lerntransfers (anhand von Anleitungen wie Bilder, Text, Audio) oder von Grund auf trainieren und dann in TensorFlow konvertieren Lite-Modell
End-to-End-Beispiel
Mit dem Modell-Erstellungstool können Sie ein TensorFlow Lite-Modell mit benutzerdefinierten Datasets nur ein paar Zeilen Code schreiben. Hier sehen Sie als Beispiel die Schritte zum Trainieren eines Klassifizierungsmodells.
from tflite_model_maker import image_classifier
from tflite_model_maker.image_classifier import DataLoader
# Load input data specific to an on-device ML app.
data = DataLoader.from_folder('flower_photos/')
train_data, test_data = data.split(0.9)
# Customize the TensorFlow model.
model = image_classifier.create(train_data)
# Evaluate the model.
loss, accuracy = model.evaluate(test_data)
# Export to Tensorflow Lite model and label file in `export_dir`.
model.export(export_dir='/tmp/')
Weitere Informationen finden Sie im Leitfaden zur Bildklassifizierung.
Installation
Es gibt zwei Möglichkeiten, Model Maker zu installieren.
- Installieren Sie ein vorgefertigtes pip-Paket.
pip install tflite-model-maker
Wenn Sie die Nightly-Version installieren möchten, führen Sie den folgenden Befehl aus:
pip install tflite-model-maker-nightly
- Klonen Sie den Quellcode aus GitHub und installieren Sie ihn.
git clone https://github.com/tensorflow/examples
cd examples/tensorflow_examples/lite/model_maker/pip_package
pip install -e .
TensorFlow Lite Model Maker hängt von TensorFlow pip ab Paket. Informationen zu GPU-Treibern finden Sie unter zum GPU-Leitfaden von TensorFlow oder Installationsanleitung.
Python API-Referenz
Die öffentlichen APIs von Model Maker finden Sie in der API Referenz.