Déployez l'IA dans des applications mobiles, Web et intégrées
-
Sur l'appareil
Réduire la latence. Travaillez hors connexion. Protégez la confidentialité et la sécurité de vos données.
-
Multiplate-forme
Exécutez le même modèle sur Android, iOS, le Web et les applications intégrées.
-
Multi-framework
Compatible avec les modèles JAX, Keras, PyTorch et TensorFlow.
-
Pile périphérique d'IA complète
Frameworks flexibles, solutions clé en main, accélérateurs matériels
Solutions prêtes à l'emploi et frameworks flexibles
Des API nécessitant peu de programmation pour les tâches d'IA courantes
API multiplates-formes permettant d'effectuer des tâches courantes d'IA générative, de vision, de texte et d'audio.
Premiers pas avec les tâches MediaPipeDéployer des modèles personnalisés multiplate-forme
Exécutez efficacement des modèles JAX, Keras, PyTorch et TensorFlow sur Android, iOS, le Web et des appareils intégrés, optimisés pour le ML traditionnel et l'IA générative.
Premiers pas avec LiteRTRéduisez les cycles de développement grâce à la visualisation
Visualisez la transformation de votre modèle via la conversion et la quantification. Déboguer les zones cliquables par rapport aux résultats des benchmarks.
<ph type="x-smartling-placeholder"> Premiers pas avec l'explorateur de modèlesCréer des pipelines personnalisés pour des fonctionnalités de ML complexes
Créez votre propre tâche en enchaînant efficacement plusieurs modèles de ML lors du pré-traitement et du post-traitement logique. Exécutez des pipelines accélérés (GPU et NPU) sans bloquer le processeur.
Premiers pas avec le framework MediaPipeLes outils et frameworks qui alimentent les applications Google
Explorez toute la pile d'IA en périphérie, avec des produits à tous les niveaux, des API nécessitant peu de programmation aux bibliothèques d'accélération spécifiques au matériel.
Tâches MediaPipe
Intégrez rapidement des fonctionnalités d'IA dans des applications mobiles et Web à l'aide d'API nécessitant peu de programmation pour des tâches courantes telles que l'IA générative, la vision par ordinateur, le texte et l'audio.
IA générative
Intégrez des modèles d'images et de langage génératifs directement dans vos applications grâce à des API prêtes à l'emploi.
Vision
Explorez un large éventail de tâches visuelles couvrant la segmentation, la classification, la détection, la reconnaissance et les points de repère corporels.
Texte et audio
Classez le texte et l'audio dans de nombreuses catégories, y compris la langue, les sentiments et vos propres catégories personnalisées.
Commencer
Framework MediaPipe
Framework de bas niveau utilisé pour créer des pipelines de ML accélérés et hautes performances, comprenant souvent plusieurs modèles de ML combinés au pré-traitement et au post-traitement.
LiteRT
Déployez des modèles d'IA créés dans n'importe quel framework sur les mobiles, le Web et les microcontrôleurs avec une accélération optimisée pour le matériel.
Multicadre
Convertissez des modèles JAX, Keras, PyTorch et TensorFlow pour les exécuter en périphérie.
Multiplate-forme
Exécutez le même modèle exact sur Android, iOS, le Web et les microcontrôleurs avec des SDK natifs.
Légers et rapide
L'environnement d'exécution efficace de LiteRT ne prend que quelques mégaoctets et permet d'accélérer le modèle sur le processeur, le GPU et les NPU.
Commencer
Explorateur de modèles
Explorez, déboguez et comparez visuellement vos modèles. Superposez des analyses comparatives des performances et des chiffres pour identifier les points problématiques.
Gemini Nano dans Android et Chrome
Créez des expériences d'IA générative à l'aide du modèle sur l'appareil le plus performant de Google