Esegui il deployment dell'IA in applicazioni mobile, web e incorporate
-
Sul dispositivo
Riduci la latenza. Lavora offline. Mantieni i tuoi dati locali e privato.
-
Piattaforma multipla
Esegui lo stesso modello su Android, iOS, web e in modalità incorporata.
-
Struttura multipla
Compatibile con i modelli JAX, Keras, PyTorch e TensorFlow.
-
Edge stack completo IA
Framework flessibili, soluzioni pronte all'uso, acceleratori hardware
Soluzioni pronte per l'uso e framework flessibili
API low-code per attività di IA comuni
API multipiattaforma per gestire attività comuni di AI generativa, visione, testo e audio.
Inizia a utilizzare le attività MediaPipeEsegui il deployment di modelli personalizzati su più piattaforme
Esegui modelli JAX, Keras, PyTorch e TensorFlow su Android, iOS, web e dispositivi embedded, ottimizzati per il ML tradizionale e l'IA generativa.
Guida introduttiva a LiteRTAbbrevia i cicli di sviluppo con la visualizzazione
Visualizza la trasformazione del modello tramite conversione e quantizzazione. Hotspot di debug per sovrapponendo i risultati dei benchmark.
Inizia a utilizzare Esplorazione modelliCrea pipeline personalizzate per funzionalità ML complesse
Crea la tua attività incatenando in modo efficiente più modelli ML insieme alla logica di pre e post-elaborazione. Esegui pipeline accelerate (GPU e NPU) senza blocchi sulla CPU.
Guida introduttiva al framework MediaPipeGli strumenti e i framework alla base delle app di Google
Esplora l'intera AI edge stack, con prodotti a ogni livello, dalle API low-code alle librerie di accelerazione specifiche per l'hardware.
Attività di MediaPipe
Integra rapidamente funzionalità di IA in app mobile e web utilizzando API low code per le attività comuni di IA generativa, visione artificiale, testo e audio.
AI generativa
Integra modelli di linguaggio e immagini generativi direttamente nelle tue app con API pronte all'uso.
Vision
Esplora una vasta gamma di attività di visione che spaziano dalla segmentazione, alla classificazione, al rilevamento, al riconoscimento e ai punti di riferimento del corpo.
Testo e audio
Classifica il testo e l'audio in molte categorie, incluse lingua, sentiment e categorie personalizzate.
Inizia
Framework MediaPipe
Un framework di basso livello utilizzato per creare pipeline di ML accelerate ad alte prestazioni, spesso con più modelli di ML combinati con l'elaborazione precedente e successiva.
LiteRT
Esegui il deployment di modelli di IA creati in qualsiasi framework su dispositivi mobili, web e microcontroller con accelerazione specifica hardware ottimizzata.
Struttura multipla
Converti i modelli da JAX, Keras, PyTorch e TensorFlow per eseguirli all'edge.
Piattaforma multipla
Esegui lo stesso identico modello su Android, iOS, web e microcontrollori con SDK nativi.
Leggero e veloce
Il runtime efficiente di LiteRT occupa solo pochi megabyte e consente l'accelerazione del modello su CPU, GPU e NPU.
Inizia
Esplorazione modelli
Esplora visivamente, sottoponi a debug e confronta i tuoi modelli. Sovrapponi benchmark e dati numerici sul rendimento per individuare gli hotspot problematici.
Gemini Nano in Android e Chrome
Crea esperienze di IA generativa utilizzando il modello on-device più potente di Google