KI in mobilen, Web- und eingebetteten Anwendungen bereitstellen

  • Auf dem Gerät

    Latenz reduzieren. Offline arbeiten Ihre Daten lokal und privat aufbewahren

  • Plattformübergreifend

    Führen Sie dasselbe Modell auf Android-, iOS-, Web- und eingebetteten Geräten aus.

  • Mehrere Frameworks

    Kompatibel mit JAX-, Keras-, PyTorch- und TensorFlow-Modellen.

  • Full AI Edge Stack

    Flexible Frameworks, schlüsselfertige Lösungen, Hardwarebeschleuniger

Sofort einsatzbereite Lösungen und flexible Frameworks

Low-Code-APIs für gängige KI-Aufgaben

Plattformübergreifende APIs zur Bewältigung gängiger Aufgaben aus den Bereichen Generative AI, Vision, Text und Audio

<ph type="x-smartling-placeholder"></ph> Erste Schritte mit MediaPipe-Aufgaben

Benutzerdefinierte Modelle plattformübergreifend bereitstellen

Sie können JAX-, Keras-, PyTorch- und TensorFlow-Modelle auf Android-, iOS-, Web- und eingebetteten Geräten ausführen, die für herkömmliches ML und generative KI optimiert sind.

<ph type="x-smartling-placeholder"></ph> Erste Schritte mit LiteRT
Feature 2

Verkürzung von Entwicklungszyklen durch Visualisierung

Visualisieren Sie die Transformation Ihres Modells durch Konvertierung und Quantisierung. Hotspots beheben, indem Benchmark-Ergebnisse überlagert werden

<ph type="x-smartling-placeholder"></ph> Erste Schritte mit dem Modell-Explorer
Feature 1

Benutzerdefinierte Pipelines für komplexe ML-Funktionen erstellen

Erstellen Sie Ihre eigene Aufgabe, indem Sie mehrere ML-Modelle sowie Vor- und Nachverarbeitung verketten Logik. Beschleunigte Pipelines (GPU und NPU) ohne Blockierung auf der CPU ausführen.

Einstieg in das MediaPipe-Framework
Feature 2

Die Tools und Frameworks, die die Apps von Google unterstützen

Entdecken Sie den gesamten KI-Edge-Stack mit Produkten auf jeder Ebene – von Low-Code-APIs bis hin zu hardwarespezifischen Beschleunigungsbibliotheken.

MediaPipe-Aufgaben

Mit Low-Code-APIs können Sie schnell KI-Funktionen in mobile und Web-Apps einbinden. Diese APIs decken gängige Aufgaben ab, darunter generative KI, maschinelles Sehen, Text und Audio.

Generative KI

Mithilfe von vorgefertigten APIs können Sie generative Sprach- und Bildmodelle direkt in Ihre Apps einbinden.

Vision

Entdecken Sie eine Vielzahl von Vision-Aufgaben wie Segmentierung, Klassifizierung, Erkennung, Erkennung und Orientierungspunkte für Ihren Körper.

Text- und Audio

Sie können Text und Audioinhalte in vielen Kategorien klassifizieren, darunter Sprache, Stimmung und eigene benutzerdefinierte Kategorien.

MediaPipe-Framework

Ein Low-Level-Framework zum Erstellen hochleistungsfähiger beschleunigter ML-Pipelines, oft mit mehreren ML-Modellen in Kombination mit Vor- und Nachverarbeitung.

LiteRT

Stellen Sie KI-Modelle, die in einem beliebigen Framework erstellt wurden, für Mobilgeräte, das Web und Mikrocontroller mit optimierter hardwarespezifischer Beschleunigung bereit.

Mehrere Frameworks

Konvertieren Sie Modelle aus JAX, Keras, PyTorch und TensorFlow, um sie auf Edge-Geräten auszuführen.

Plattformübergreifend

Führen Sie genau dasselbe Modell auf Android, iOS, Web und Mikrocontrollern mit nativen SDKs aus.

Leicht und schnell

Die effiziente LiteRT-Laufzeit belegt nur wenige Megabyte und ermöglicht die Modellbeschleunigung über CPU, GPU und NPU hinweg.

Modell-Explorer

Sie können Ihre Modelle visuell untersuchen, debuggen und vergleichen. Blenden Sie Leistungs-Benchmarks und numerische Werte ein, um problematische Hotspots zu identifizieren.

Nanozeichen

Aktuelle Videos und Blogposts