Déployez l'IA dans des applications mobiles, Web et intégrées
-
Sur l'appareil
Réduire la latence. Travaillez hors connexion. Conservez vos données en local et privé.
-
Multiplate-forme
Exécutez le même modèle sur Android, iOS, le Web et les applications intégrées.
-
Multicadre
Compatible avec les modèles JAX, Keras, PyTorch et TensorFlow
-
Pile périphérique d'IA complète
Frameworks flexibles, solutions clé en main, accélérateurs matériels
Solutions prêtes à l'emploi et frameworks flexibles
Des API nécessitant peu de programmation pour les tâches d'IA courantes
API multiplates-formes permettant d'effectuer des tâches courantes d'IA générative, de vision, de texte et d'audio.
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> Premiers pas avec les tâches MediaPipe .Déployer des modèles personnalisés sur plusieurs plates-formes
Exécutez efficacement des modèles JAX, Keras, PyTorch et TensorFlow sur Android, iOS, le Web et des appareils intégrés, optimisés pour le ML traditionnel et l'IA générative.
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> Premiers pas avec LiteRT .Réduisez les cycles de développement grâce à la visualisation
Visualisez la transformation de votre modèle à travers la conversion et la quantification. Déboguer les zones cliquables avec les résultats des benchmarks.
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> Premiers pas avec l'explorateur de modèles .Créer des pipelines personnalisés pour des caractéristiques de ML complexes
Créez votre propre tâche en enchaînant efficacement plusieurs modèles de ML lors du pré-traitement et du post-traitement logique. Exécutez des pipelines accélérés (GPU et NPU) sans bloquer le processeur.
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"> Premiers pas avec MediaPipe Framework .Outils et frameworks sur lesquels s'appuient les applications Google
Explorez toute la pile d'IA en périphérie, avec des produits à tous les niveaux, des API nécessitant peu de programmation aux bibliothèques d'accélération spécifiques au matériel.
MediaPipe Tasks
Intégrez rapidement des fonctionnalités d'IA dans des applications mobiles et Web à l'aide d'API nécessitant peu de programmation pour des tâches courantes telles que l'IA générative, la vision par ordinateur, le texte et l'audio.
IA générative
Intégrez des modèles d'images et de langage génératifs directement dans vos applications grâce à des API prêtes à l'emploi.
Vision
Explorez un large éventail de tâches visuelles couvrant la segmentation, la classification, la détection, la reconnaissance et les points de repère corporels.
Texte et audio
Classez le texte et l'audio dans de nombreuses catégories, y compris la langue, les sentiments et vos propres catégories personnalisées.
Commencer
Framework MediaPipe
Framework de bas niveau utilisé pour créer des pipelines de ML accélérés et hautes performances, comprenant souvent plusieurs modèles de ML combinés au pré-traitement et au post-traitement.
LiteRT
Déployez des modèles d'IA créés dans n'importe quel framework sur mobile, sur le Web et sur des microcontrôleurs, avec une accélération spécifique au matériel optimisée.
Multicadre
Convertir des modèles JAX, Keras, PyTorch et TensorFlow pour les exécuter en périphérie
Multiplate-forme
Exécutez le même modèle sur Android, iOS, le Web et les microcontrôleurs avec des SDK natifs.
Légers et rapide
L'environnement d'exécution efficace de LiteRT ne prend que quelques mégaoctets et permet d'accélérer le modèle sur le processeur, le GPU et les NPU.
Commencer
Explorateur de modèles
Explorez, déboguez et comparez visuellement vos modèles. Superposez des benchmarks de performances et des chiffres pour identifier les points sensibles posant problème.
Gemini Nano sur Android et Chrome
Créez des expériences d'IA générative à l'aide du modèle sur l'appareil le plus performant de Google