Déployer l'IA dans les applications mobiles, Web et intégrées
-
Sur l'appareil
Réduire la latence. Travailler hors connexion Préservez la confidentialité et la confidentialité de vos données.
-
Multiplate-forme
Exécutez le même modèle sur Android, iOS, le Web et les applications intégrées.
-
Multi-framework
Compatible avec les modèles JAX, Keras, PyTorch et TensorFlow.
-
Pile complète d'IA en périphérie
Frameworks flexibles, solutions clés en main, accélérateurs matériels
Solutions prêtes à l'emploi et frameworks flexibles
Des API nécessitant peu de programmation pour les tâches d'IA courantes
API multiplates-formes pour les tâches courantes d'IA générative, de vision, de texte et d'audio.
Premiers pas avec les tâches MediaPipeDéployer des modèles personnalisés multiplate-forme
Exécutez des modèles JAX, Keras, PyTorch et TensorFlow de manière performante sur Android, iOS, le Web et les appareils embarqués, optimisés pour le ML traditionnel et l'IA générative.
Premiers pas avec LiteRTAccélérez les cycles de développement grâce à la visualisation
Visualisez la transformation de votre modèle à travers la conversion et la quantification. Déboguer les hotspots en superposant les résultats des benchmarks.
Premiers pas avec l'explorateur de modèlesCréer des pipelines personnalisés pour des fonctionnalités de ML complexes
Créez votre propre tâche en enchaînant plusieurs modèles de ML avec une logique de pré et post-traitement de manière performante. Exécutez des pipelines accélérés (GPU et NPU) sans bloquer le processeur.
Premiers pas avec le framework MediaPipeLes outils et frameworks qui alimentent les applications Google
Découvrez l'ensemble de la pile edge d'IA, avec des produits à tous les niveaux, des API low-code aux bibliothèques d'accélération spécifiques au matériel.
MediaPipe Tasks
Intégrez rapidement des fonctionnalités d'IA dans des applications mobiles et Web à l'aide d'API low-code pour des tâches courantes couvrant l'IA générative, la vision par ordinateur, le texte et l'audio.
IA générative
Intégrez des modèles d'images et de langage génératifs directement dans vos applications grâce à des API prêtes à l'emploi.
Vision
Explorez un large éventail de tâches de vision couvrant la segmentation, la classification, la détection, la reconnaissance et les repères corporels.
Texte et audio
Classez le texte et l'audio dans de nombreuses catégories, y compris la langue, les sentiments et vos propres catégories personnalisées.
Commencer
Framework MediaPipe
Framework de bas niveau utilisé pour créer des pipelines de ML accélérés hautes performances, qui incluent souvent plusieurs modèles de ML combinés à un prétraitement et un post-traitement.
LiteRT
Déployez des modèles d'IA créés dans n'importe quel framework sur les mobiles, le Web et les microcontrôleurs avec une accélération optimisée pour le matériel.
Multicadre
Convertir des modèles JAX, Keras, PyTorch et TensorFlow pour les exécuter en périphérie
Multiplate-forme
Exécutez le même modèle exact sur Android, iOS, le Web et les microcontrôleurs avec des SDK natifs.
Légère et rapide
L'environnement d'exécution efficace de LiteRT ne prend que quelques mégaoctets et permet d'accélérer les modèles sur les processeurs, les GPU et les NPU.
Commencer
Explorateur de modèles
Explorez, déboguez et comparez vos modèles de manière visuelle. Superposez des benchmarks de performances et des chiffres pour identifier les points sensibles posant problème.
Gemini Nano dans Android et Chrome
Créer des expériences d'IA générative à l'aide du modèle sur l'appareil le plus puissant de Google