TensorFlow Lite – Übersicht

TensorFlow Lite ermöglicht On-Device-Machine Learning (ODML) für mobile und eingebettete Geräte. Sie können sofort ausführbare TensorFlow Lite-Modelle für ML-/KI-Aufgaben ausführen oder TensorFlow-, PyTorch- oder JAX-Modelle in das TFLite-Format mit den Konvertierungs- und Optimierungstools von AI Edge.

Wichtige Features

  • Optimiert für maschinelles Lernen auf dem Gerät: TensorFlow Lite zielt auf fünf ab wichtige ODML-Einschränkungen: Latenz (ein Umlauf zu einem Server ist nicht möglich), Datenschutz (keine personenbezogenen Daten verlassen das Gerät), Konnektivität (eine Internetverbindung ist nicht erforderlich), Größe (geringere Modell- und binäre Größe) und Stromverbrauch (effiziente Inferenz und fehlende Netzwerkverbindungen).

  • Plattformübergreifende Unterstützung: Kompatibel mit Android und iOS-Geräte, eingebettet Linux und Mikrocontrollern.

  • Optionen für Multi-Framework-Modelle: AI Edge bietet Tools zum Konvertieren von Modellen. von TensorFlow-, PyTorch- und JAX-Modellen in das FlatBuffers-Format (.tflite), sodass Sie eine breite Palette hochmoderner Modelle TF Lite. Außerdem haben Sie Zugriff auf Tools zur Modelloptimierung, Quantisierung und Metadaten.

  • Vielfältige Sprachunterstützung: Umfasst SDKs für Java/Kotlin, Swift, Objective-C, C++ und Python.

  • Hohe Leistung: Hardwarebeschleunigung wie GPU und iOS Core ML.

Entwicklungs-Workflow

Beim TensorFlow Lite-Entwicklungsworkflow wird ein ML-/KI-Problem identifiziert, ein Modell auswählen, das dieses Problem löst, und das Modell auf dem Gerät zu implementieren. Die folgenden Schritte führen Sie durch den Workflow und enthalten Links zu weiteren Anleitung.

1. Die geeignetste Lösung für das ML-Problem finden

TensorFlow Lite bietet Nutzern ein hohes Maß an Flexibilität und Anpassbarkeit wenn es darum geht, Probleme des maschinellen Lernens zu lösen. die ein bestimmtes Modell oder eine spezielle Implementierung benötigen. Nutzer*innen die nach Plug-and-Play-Lösungen suchen, bevorzugen unter Umständen MediaPipe Tasks bietet Ihnen für gängige ML-Aufgaben wie Objekterkennung, Textklassifizierung und LLM-Inferenz.

Wählen Sie eines der folgenden AI Edge-Frameworks aus:

  • TensorFlow Lite: Flexible und anpassbare Laufzeit, die eine breite Palette von Modellen ausführen kann verschiedenen Modellen. Wählen Sie ein Modell für Ihren Anwendungsfall aus, konvertieren Sie es in das TensorFlow Lite-Format (falls erforderlich) und führen es auf dem Gerät aus. Wenn Sie beabsichtigen, um TensorFlow Lite zu verwenden, lesen Sie weiter.
  • MediaPipe Tasks: Plug-and-Play-Lösungen mit Standardmodellen, die für die Anpassung. Wählen Sie die Aufgabe aus, die Ihr KI-/ML-Problem löst, und auf mehreren Plattformen implementieren. Wenn Sie MediaPipe Tasks verwenden möchten, finden Sie in der MediaPipe Dokumentation zu Tasks

2. Modell auswählen

Ein TensorFlow Lite-Modell wird in einem effizienten, portablen Format dargestellt, das FlatBuffers verwendet die .tflite Dateiendung.

Sie können ein TensorFlow Lite-Modell so verwenden:

  • Vorhandenes TensorFlow Lite-Modell verwenden: Die einfachste Methode ist die Verwendung eines TensorFlow Lite-Modell bereits im Format .tflite. Diese Modelle enthalten keine zusätzliche Conversion-Schritte erforderlich. Sie finden TensorFlow Lite-Modelle auf Kaggle-Modelle:

  • Modell in ein TensorFlow Lite-Modell konvertieren:Sie können die Methode TensorFlow Converter, PyToch Converter oder JAX Konverter zum Konvertieren von Modellen in das FlatBuffers-Format (.tflite) und führen sie in TensorFlow Lite aus. Für den Einstieg finden Sie auf den folgenden Websites:

Ein TensorFlow Lite-Modell kann optional Metadaten enthalten, die Folgendes enthalten: menschenlesbare Modellbeschreibungen und maschinenlesbare Daten für automatische Pipelines für die Vor- und Nachbearbeitung während der On-Device-Inferenz generiert werden. Weitere Informationen findest du unter Metadaten hinzufügen.

3. Modell in die App einbinden

Sie können Ihre TensorFlow Lite-Modelle implementieren, um Inferenzen vollständig auszuführen im Web, auf eingebetteten und auf Mobilgeräten. TensorFlow Lite enthält APIs für Python, Java und Kotlin für Android, Swift für iOS und C++ für Mikrogeräte.

Verwenden Sie die folgenden Leitfäden, um ein TensorFlow Lite-Modell auf Ihrer bevorzugten Plattform:

Auf Android- und iOS-Geräten lässt sich die Leistung mithilfe der Hardware verbessern von Beschleunigungen. Bei beiden Plattformen können Sie eine GPU Delegieren und unter iOS können Sie das Core ML Delegieren. Um neue Hardwarebeschleuniger zu unterstützen, Sie können Ihren eigenen Bevollmächtigten definieren.

Je nach Modelltyp können Sie eine Inferenz auf folgende Arten ausführen:

Nächste Schritte

Neue Nutzer sollten mit dem TensorFlow Lite-Schnellstart beginnen. Weitere Informationen finden Sie in den folgenden Abschnitten:

Modellkonvertierung

Plattformleitfäden