Übersicht
Die TensorFlow Lite Model Maker-Bibliothek vereinfacht das Trainieren eines TensorFlow Lite-Modells mit einem benutzerdefinierten Dataset. Dabei wird Lerntransfer verwendet, um die Menge der erforderlichen Trainingsdaten zu reduzieren und die Trainingszeit zu verkürzen.
Unterstützte Aufgaben
Die Model Maker-Bibliothek unterstützt derzeit die folgenden ML-Aufgaben. Klicken Sie auf die Links unten, um Anleitungen zum Trainieren des Modells aufzurufen.
| Unterstützte Aufgaben | Nützlichkeit der Aufgabe |
|---|---|
| Bildklassifizierung: Anleitung, API | Bilder in vordefinierte Kategorien einordnen |
| Objekterkennung: Anleitung, API | Objekte in Echtzeit erkennen |
| Textklassifizierung: Tutorial, API | Text in vordefinierte Kategorien einteilen |
| BERT-Frage und ‑Antwort: tutorial, api | Mit BERT die Antwort auf eine bestimmte Frage in einem bestimmten Kontext finden. |
| Audio-Klassifizierung: Tutorial, API | Audioinhalte in vordefinierte Kategorien einteilen |
| Empfehlung: Demo, API | Artikel basierend auf den Kontextinformationen für das On-Device-Szenario empfehlen |
| Sucher: tutorial, api | Nach ähnlichem Text oder Bild in einer Datenbank suchen |
Wenn Ihre Aufgaben nicht unterstützt werden, müssen Sie zuerst TensorFlow verwenden, um ein TensorFlow-Modell mit Lerntransfer neu zu trainieren (folgen Sie Anleitungen wie Bilder, Text, Audio) oder es von Grund auf neu zu trainieren, und es dann in ein TensorFlow Lite-Modell konvertieren.
End-to-End-Beispiel
Mit Model Maker können Sie ein TensorFlow Lite-Modell mit benutzerdefinierten Datasets in nur wenigen Zeilen Code trainieren. Im Folgenden finden Sie beispielsweise die Schritte zum Trainieren eines Bildklassifizierungsmodells.
from tflite_model_maker import image_classifier
from tflite_model_maker.image_classifier import DataLoader
# Load input data specific to an on-device ML app.
data = DataLoader.from_folder('flower_photos/')
train_data, test_data = data.split(0.9)
# Customize the TensorFlow model.
model = image_classifier.create(train_data)
# Evaluate the model.
loss, accuracy = model.evaluate(test_data)
# Export to Tensorflow Lite model and label file in `export_dir`.
model.export(export_dir='/tmp/')
Weitere Informationen finden Sie im Leitfaden zur Bildklassifizierung.
Installation
Es gibt zwei Möglichkeiten, Model Maker zu installieren.
- Installieren Sie ein vorgefertigtes pip-Paket.
pip install tflite-model-maker
Wenn Sie die Nightly-Version installieren möchten, verwenden Sie den folgenden Befehl:
pip install tflite-model-maker-nightly
- Klonen Sie den Quellcode von GitHub und installieren Sie ihn.
git clone https://github.com/tensorflow/examples
cd examples/tensorflow_examples/lite/model_maker/pip_package
pip install -e .
TensorFlow Lite Model Maker hängt vom TensorFlow-Pip-Paket ab. Informationen zu GPU-Treibern finden Sie im GPU-Leitfaden oder im Installationsleitfaden von TensorFlow.
Python API-Referenz
Die öffentlichen APIs von Model Maker finden Sie in der API-Referenz.