Google AI Edge
On-Device-KI für mobile, Web- und eingebettete Anwendungen
On-Device-Lösungen von Modellen bis hin zu Pipelines
ML-Bereitstellung beschleunigen, Pipelines optimieren und einfacher auf leistungsstarke LLMs zugreifen
Ein End-to-End-Stack mit übergeordneten und Low-Level-Komponenten
Was gibt es Neues bei der I/O?
MediaPipe
Ganz einfach innovative ML-Lösungen auf dem Gerät erstellen
Häufige Herausforderungen mit MediaPipe lösen
TensorFlow Lite
Eine einfache Bibliothek mit mehreren Frameworks zum Bereitstellen von Modellen auf Mobilgeräten, im Web und auf Mikrocontrollern.
Generative AI, läuft auf dem Gerät
MediaPipe LLM Inference API
Sie können LLMs vollständig auf dem Gerät ausführen und eine Vielzahl von Aufgaben erledigen, z. B. Text generieren, Informationen in natürlicher Sprache abrufen und Dokumente zusammenfassen. Die API bietet integrierte Unterstützung für mehrere Large Language Models (Text-zu-Text), sodass Sie die neuesten generativen KI-Modelle auf dem Gerät auf Ihre Apps und Produkte anwenden können. Weitere Informationen
Generative Torch API
Erstellen Sie leistungsstarke LLMs in PyTorch und konvertieren Sie sie dann zur Ausführung mit der TensorFlow Lite-Laufzeit (TFLite) auf dem Gerät. Weitere Informationen
Zwillinge Nano
Über Android AICore können Sie auf unser effizientes Gemini-Modell für Aufgaben auf dem Gerät zugreifen. Bald in Chrome verfügbar.
Warum sollten Sie ML auf Edge-Geräten bereitstellen?
Latenz
Dank der einfachen und schnellen Medienverarbeitung in Echtzeit kannst du den Umweg des Servers überspringen.
Datenschutz
Führen Sie Inferenzen lokal durch, ohne dass sensible Daten das Gerät verlassen.
Kosten
Nutzen Sie Rechenressourcen auf dem Gerät und sparen Sie Serverkosten.
Verfügbarkeit von Offlineinhalten
Keine Netzwerkverbindung? Kein Problem.