Google AI Edge
IA intégrée à l'appareil pour les applications mobiles, Web et intégrées
Solutions sur l'appareil, des modèles aux pipelines
Accélérez le déploiement du ML, optimisez les pipelines et accédez facilement à des LLM puissants
Pile de bout en bout comprenant des composants de haut et de bas niveau
Nouveautés Google I/O
MediaPipe
Créez facilement des solutions de ML innovantes sur l'appareil
TensorFlow Lite
Bibliothèque légère et multi-framework permettant de déployer des modèles sur des appareils mobiles, sur le Web, ou sur des microcontrôleurs.
IA générative, exécutée sur l'appareil
API MediaPipe LLM Inference
Exécutez des LLM entièrement sur l'appareil et effectuez un large éventail de tâches, comme générer du texte, récupérer des informations en langage naturel et résumer des documents. L'API est compatible avec plusieurs grands modèles de langage texte-vers-texte, ce qui vous permet d'appliquer les derniers modèles d'IA générative sur l'appareil à vos applications et produits. En savoir plus
API Torch Generative
Créez des LLM hautes performances dans PyTorch, puis convertissez-les pour qu'ils s'exécutent sur l'appareil à l'aide de l'environnement d'exécution TensorFlow Lite (TFLite). En savoir plus
Gemini Nano
Accédez à notre modèle Gemini le plus efficace pour les tâches sur l'appareil via Android AICore. Bientôt disponible dans Chrome.
Pourquoi déployer le ML sur des appareils de périphérie ?
Tardive
Bénéficiez d'un traitement multimédia en temps réel simple, rapide et sans intervention du serveur.
Confidentialité
Effectuez des inférences en local, sans que les données sensibles ne quittent l'appareil.
Coût
Utilisez les ressources de calcul sur l'appareil et faites des économies sur les coûts de serveur.
Disponibilité de la lecture hors connexion
Aucune connexion réseau. Aucun problème.