Google AI Edge

IA on-device per applicazioni mobile, web e incorporate

IA generativa, in esecuzione sul dispositivo

API MediaPipe LLM Inference

Esegui gli LLM completamente sul dispositivo ed esegui una vasta gamma di attività, come la generazione di testo, il recupero di informazioni in linguaggio naturale e il riepilogo dei documenti. L'API offre supporto integrato per più modelli linguistici di grandi dimensioni (LLM) da testo a testo, in modo da poter applicare i più recenti modelli di IA generativa on-device alle tue app e ai tuoi prodotti. Scopri di più

API Torch Generative

Crea LLM ad alte prestazioni in PyTorch, quindi convertili per l'esecuzione on-device utilizzando il runtime TensorFlow Lite (TFLite). Scopri di più.

Gemini Nano

Accedi al nostro modello Gemini più efficiente per le attività sul dispositivo tramite Android AICore. Presto disponibile su Chrome.

Perché eseguire il deployment del machine learning su dispositivi periferici?

Icona del tachimetro

Latenza

Evita il round trip del server per un'elaborazione dei contenuti multimediali semplice, veloce e in tempo reale.

Icona lucchetto

Privacy

Esegui l'inferenza localmente, senza che i dati sensibili lascino il dispositivo.

Senza denaro

Costo

Utilizza le risorse di calcolo on-device e risparmia sui costi di server.

Nessuna connessione Wi-Fi

Disponibilità offline

Nessuna connessione di rete, nessun problema.