KI in mobilen, Web- und eingebetteten Anwendungen bereitstellen

  • Auf dem Gerät

    Latenz reduzieren. Offline arbeiten Daten lokal und privat halten

  • Plattformübergreifend

    Dasselbe Modell für Android, iOS, das Web und eingebettete Inhalte ausführen

  • Mehrere Frameworks

    Kompatibel mit JAX-, Keras-, PyTorch- und TensorFlow-Modellen.

  • Full AI Edge Stack

    Flexible Frameworks, schlüsselfertige Lösungen, Hardwarebeschleuniger

Vorgefertigte Lösungen und flexible Frameworks

Low-Code-APIs für gängige KI-Aufgaben

Plattformübergreifende APIs zur Bewältigung gängiger Aufgaben aus den Bereichen Generative AI, Vision, Text und Audio

Mit MediaPipe-Aufgaben beginnen

Benutzerdefinierte Modelle plattformübergreifend bereitstellen

Sie können JAX-, Keras-, PyTorch- und TensorFlow-Modelle effizient auf Android-, iOS-, Web- und eingebetteten Geräten ausführen, die für traditionelle ML und generative KI optimiert sind.

Einstieg in LiteRT
Feature 2

Entwicklungszyklen mit Visualisierung verkürzen

Visualisieren Sie die Transformation Ihres Modells durch Konvertierung und Quantisierung. Sie können Fehler bei Hotspots beheben, indem Sie die Benchmarkergebnisse überlagern.

Erste Schritte mit dem Modell-Explorer
Feature 1

Benutzerdefinierte Pipelines für komplexe ML-Features erstellen

Erstellen Sie Ihre eigene Aufgabe, indem Sie mehrere ML-Modelle mit Vor- und Nachverarbeitungslogik effizient verketten. Beschleunigte Pipelines (GPU und NPU) ausführen, ohne die CPU zu blockieren. 

Erste Schritte mit dem MediaPipe-Framework {/2
Feature 2

Die Tools und Frameworks, die die Apps von Google unterstützen

Entdecken Sie den gesamten KI-Edge-Stack mit Produkten auf jeder Ebene – von Low-Code-APIs bis hin zu hardwarespezifischen Beschleunigungsbibliotheken.

MediaPipe-Aufgaben

Mit Low-Code-APIs können Sie schnell KI-Funktionen in mobile und Web-Apps einbinden. Diese APIs decken gängige Aufgaben ab, darunter generative KI, maschinelles Sehen, Text und Audio.

Generative KI

Mit einsatzbereiten APIs können Sie generative Sprach- und Bildmodelle direkt in Ihre Apps einbinden.

Vision

Entdecken Sie eine Vielzahl von Vision-Aufgaben wie Segmentierung, Klassifizierung, Erkennung, Erkennung und Orientierungspunkte für Ihren Körper.

Text und Audio

Sie können Text und Audioinhalte in vielen Kategorien klassifizieren, darunter Sprache, Stimmung und eigene benutzerdefinierte Kategorien.

MediaPipe Framework

Ein Low-Level-Framework zum Erstellen hochleistungsfähiger beschleunigter ML-Pipelines, oft mit mehreren ML-Modellen in Kombination mit Vor- und Nachverarbeitung.

LiteRT

Sie können KI-Modelle, die in einem beliebigen Framework erstellt wurden, mit optimierter hardwarespezifischer Beschleunigung auf Mobilgeräten, im Web und auf Mikrocontrollern bereitstellen.

Mehrere Frameworks

Modelle von JAX, Keras, PyTorch und TensorFlow für die Ausführung an der Edge konvertieren

Plattformübergreifend

Sie können dasselbe Modell mit nativen SDKs auf Android-, iOS-, Web- und Mikrocontrollern ausführen.

Leicht und schnell

Die effiziente LiteRT-Laufzeit belegt nur wenige Megabyte und ermöglicht die Modellbeschleunigung über CPU, GPU und NPU hinweg.

Modell-Explorer

Modelle visuell untersuchen, beheben und vergleichen Blenden Sie Leistungs-Benchmarks und numerische Werte ein, um problematische Hotspots zu erkennen.

Nanozeichen

Aktuelle Videos und Blogposts