Google AI Edge
IA on-device per applicazioni mobile, web e incorporate
Soluzioni on-device, dai modelli alle pipeline
Accelera il deployment del machine learning, ottimizza le pipeline e accedi facilmente a potenti LLM
Uno stack end-to-end con componenti di alto e basso livello.
Novità da I/O?
MediaPipe
Crea facilmente soluzioni ML innovative on-device
Risolvi problemi comuni con MediaPipe
TensorFlow Lite
Una libreria multi-framework leggera per il deployment di modelli su dispositivi mobili, web e microcontroller.
IA generativa, in esecuzione sul dispositivo
API MediaPipe LLM Inference
Esegui gli LLM completamente sul dispositivo ed esegui una vasta gamma di attività, come la generazione di testo, il recupero di informazioni in linguaggio naturale e il riepilogo dei documenti. L'API offre supporto integrato per più modelli linguistici di grandi dimensioni (LLM) da testo a testo, in modo da poter applicare i più recenti modelli di IA generativa on-device alle tue app e ai tuoi prodotti. Scopri di più
API Torch Generative
Crea LLM ad alte prestazioni in PyTorch, quindi convertili per l'esecuzione on-device utilizzando il runtime TensorFlow Lite (TFLite). Scopri di più.
Gemini Nano
Accedi al nostro modello Gemini più efficiente per le attività sul dispositivo tramite Android AICore. Presto disponibile su Chrome.
Perché eseguire il deployment del machine learning su dispositivi periferici?
Latenza
Evita il round trip del server per un'elaborazione dei contenuti multimediali semplice, veloce e in tempo reale.
Privacy
Esegui l'inferenza localmente, senza che i dati sensibili lascino il dispositivo.
Costo
Utilizza le risorse di calcolo on-device e risparmia sui costi di server.
Disponibilità offline
Nessuna connessione di rete, nessun problema.