KI in mobilen, Web- und eingebetteten Anwendungen bereitstellen
-
Auf dem Gerät
Latenz reduzieren. Offline arbeiten Daten lokal speichern und privat.
-
Plattformübergreifend
Führen Sie dasselbe Modell auf Android-, iOS-, Web- und eingebetteten Geräten aus.
-
Multi-Framework
Kompatibel mit JAX-, Keras-, PyTorch- und TensorFlow-Modellen.
-
Full AI Edge Stack
Flexible Frameworks, sofort einsetzbare Lösungen, Hardwarebeschleuniger
Sofort einsatzbereite Lösungen und flexible Frameworks
Low-Code-APIs für gängige KI-Aufgaben
Plattformübergreifende APIs zur Bewältigung gängiger Aufgaben aus den Bereichen Generative AI, Vision, Text und Audio
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> Erste Schritte mit MediaPipe-AufgabenBenutzerdefinierte Modelle plattformübergreifend bereitstellen
Sie können JAX-, Keras-, PyTorch- und TensorFlow-Modelle auf Android-, iOS-, Web- und eingebetteten Geräten ausführen, die für herkömmliches ML und generative KI optimiert sind.
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> Erste Schritte mit LiteRTVerkürzung von Entwicklungszyklen durch Visualisierung
Visualisieren Sie die Transformation Ihres Modells durch Konvertierung und Quantisierung. Fehler bei Hotspots beheben nach die Benchmark-Ergebnisse überlagern.
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> Erste Schritte mit dem Modell-ExplorerBenutzerdefinierte Pipelines für komplexe ML-Features erstellen
Erstellen Sie Ihre eigene Aufgabe, indem Sie mehrere ML-Modelle sowie Vor- und Nachverarbeitung verketten Logik. Beschleunigte Pipelines (GPU und NPU) ohne Blockierung auf der CPU ausführen.
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> Erste Schritte mit MediaPipe FrameworkTools und Frameworks, auf denen die Apps von Google basieren
Entdecken Sie den gesamten KI-Edge-Stack mit Produkten auf jeder Ebene – von Low-Code-APIs bis hin zu hardwarespezifischen Beschleunigungsbibliotheken.
MediaPipe-Aufgaben
Mit Low-Code-APIs können Sie KI-Funktionen schnell in mobile Apps und Webanwendungen einbinden, um gängige Aufgaben wie Generative AI, maschinelles Sehen, Text und Audio auszuführen.
Generative KI
Mit einsatzbereiten APIs können Sie generative Sprach- und Bildmodelle direkt in Ihre Apps einbinden.
Vision
Entdecken Sie eine Vielzahl von Vision-Aufgaben wie Segmentierung, Klassifizierung, Erkennung, Erkennung und Orientierungspunkte für Ihren Körper.
Text- und Audio
Sie können Text und Audioinhalte in vielen Kategorien klassifizieren, darunter Sprache, Stimmung und eigene benutzerdefinierte Kategorien.
Erste Schritte
MediaPipe-Framework
Ein Low-Level-Framework zum Erstellen von hochleistungsbeschleunigten ML-Pipelines, das häufig mehrere ML-Modelle in Kombination mit Vor- und Nachverarbeitung umfasst.
LiteRT
Stellen Sie KI-Modelle, die in einem beliebigen Framework erstellt wurden, für Mobilgeräte, das Web und Mikrocontroller mit optimierter hardwarespezifischer Beschleunigung bereit.
Multi-Framework
Konvertieren Sie Modelle aus JAX, Keras, PyTorch und TensorFlow, um sie auf Edge-Geräten auszuführen.
Plattformübergreifend
Führen Sie genau dasselbe Modell auf Android, iOS, Web und Mikrocontrollern mit nativen SDKs aus.
Leicht und schnell
Die effiziente Laufzeit von LiteRT nimmt nur wenige Megabyte ein und ermöglicht eine Modellbeschleunigung über CPU, GPU und NPUs.
Erste Schritte
Modell-Explorer
Sie können Ihre Modelle visuell untersuchen, debuggen und vergleichen. Blenden Sie Leistungs-Benchmarks und numerische Werte ein, um problematische Hotspots zu identifizieren.
Gemini Nano für Android und Google Chrome
Mit dem leistungsstärksten On-Device-Modell von Google auf generativer KI basierende Funktionen entwickeln