Esegui il deployment dell'IA in applicazioni mobile, web e incorporate
-
Sul dispositivo
Riduci la latenza. Lavora offline. Mantieni i tuoi dati locali e privati.
-
Multipiattaforma
Esegui lo stesso modello su Android, iOS, web e in modalità incorporata.
-
Multi-framework
Compatibile con i modelli JAX, Keras, PyTorch e TensorFlow.
-
Piattaforma completa di IA perimetrale
Framework flessibili, soluzioni pronte all'uso, acceleratori hardware
Soluzioni pronte per l'uso e framework flessibili
API low-code per attività di IA comuni
API multipiattaforma per gestire attività comuni di AI generativa, visione, testo e audio.
Inizia a utilizzare le attività MediaPipeEsegui il deployment di modelli personalizzati su più piattaforme
Esegui modelli JAX, Keras, PyTorch e TensorFlow su Android, iOS, web e dispositivi embedded, ottimizzati per il ML tradizionale e l'IA generativa.
Iniziare a utilizzare LiteRTAbbrevia i cicli di sviluppo con la visualizzazione
Visualizza la trasformazione del tuo modello attraverso la conversione e la quantizzazione. Esegui il debug degli hotspot sovrapponendo i risultati dei benchmark.
Iniziare a utilizzare Esplorazione modelliCrea pipeline personalizzate per funzionalità ML complesse
Crea la tua attività incatenando in modo efficiente più modelli ML insieme alla logica di pre e post-elaborazione. Esegui pipeline accelerate (GPU e NPU) senza bloccare la CPU.
Iniziare a utilizzare il framework MediaPipeGli strumenti e i framework alla base delle app di Google
Esplora l'intera AI edge stack, con prodotti a ogni livello, dalle API low-code alle librerie di accelerazione specifiche per l'hardware.
Attività di MediaPipe
Integra rapidamente funzionalità di IA nelle app mobile e web utilizzando API low-code per attività comuni che spaziano dall'IA generativa, alla visione artificiale, al testo e all'audio.
AI generativa
Integra modelli di linguaggio e immagini generativi direttamente nelle tue app con API pronte all'uso.
Vision
Esplora una vasta gamma di attività di visione che spaziano dalla segmentazione, alla classificazione, al rilevamento, al riconoscimento e ai punti di riferimento del corpo.
Testo e audio
Classifica il testo e l'audio in molte categorie, incluse lingua, sentiment e categorie personalizzate.
Inizia
Framework MediaPipe
Un framework di basso livello utilizzato per creare pipeline di ML accelerate ad alte prestazioni, spesso con più modelli di ML combinati con l'elaborazione precedente e successiva.
LiteRT
Esegui il deployment di modelli di IA creati in qualsiasi framework su dispositivi mobili, web e microcontroller con accelerazione specifica per hardware ottimizzata.
Multi-framework
Converti i modelli da JAX, Keras, PyTorch e TensorFlow per eseguirli all'edge.
Multipiattaforma
Esegui lo stesso identico modello su Android, iOS, web e microcontrollori con SDK nativi.
Leggero e veloce
Il runtime efficiente di LiteRT occupa solo pochi megabyte e consente l'accelerazione del modello su CPU, GPU e NPU.
Inizia
Esplorazione modelli
Esplora, esegui il debug e confronta visivamente i tuoi modelli. Sovrapponi benchmark e dati numerici sul rendimento per individuare gli hotspot problematici.
Gemini Nano in Android e Chrome
Crea esperienze di IA generativa utilizzando il modello on-device più potente di Google