Esegui il deployment dell'IA in applicazioni mobile, web e incorporate
-
Sul dispositivo
Riduci la latenza. Lavora offline. Mantieni i tuoi dati locali e privato.
-
Piattaforma multipla
Esegui lo stesso modello su Android, iOS, web e incorporato.
-
Struttura multipla
Compatibile con i modelli JAX, Keras, PyTorch e TensorFlow.
-
Edge stack completo IA
Framework flessibili, soluzioni pronte all'uso, acceleratori hardware
Soluzioni pronte per l'uso e framework flessibili
API low-code per attività di IA comuni
API multipiattaforma per affrontare attività comuni relative ad AI generativa, visione artificiale, testo e audio.
Guida introduttiva alle attività di MediaPipeEsegui il deployment di modelli personalizzati su più piattaforme
Esegui modelli JAX, Keras, PyTorch e TensorFlow ad alte prestazioni su dispositivi Android, iOS, web e incorporati, ottimizzati per il ML tradizionale e l'IA generativa.
Guida introduttiva a LiteRTAbbrevia i cicli di sviluppo con la visualizzazione
Visualizza la trasformazione del tuo modello attraverso la conversione e la quantizzazione. Hotspot di debug per sovrapponendo i risultati dei benchmark.
Inizia a utilizzare Esplorazione modelliCrea pipeline personalizzate per caratteristiche ML complesse
Crea la tua attività concatenando in modo efficiente più modelli ML con operazioni di pre e post-elaborazione logica. Esegui pipeline accelerate (GPU e NPU) senza bloccare la CPU.
Guida introduttiva al framework MediaPipeGli strumenti e i framework alla base delle app di Google
Esplora l'intero edge stack dell'IA, con prodotti a ogni livello, dalle API low code alle librerie di accelerazione specifica per hardware.
Attività di MediaPipe
Integra rapidamente funzionalità di IA in app mobile e web utilizzando API low code per le attività comuni di IA generativa, visione artificiale, testo e audio.
AI generativa
Integra modelli di linguaggio e immagini generativi direttamente nelle tue app con API pronte all'uso.
Vision
Esplora un'ampia gamma di attività visive che comprendono la segmentazione, la classificazione, il rilevamento, il riconoscimento e i punti di riferimento del corpo.
SMS e l'audio
Classifica il testo e l'audio in molte categorie, incluse lingua, sentiment e categorie personalizzate.
Inizia
Framework MediaPipe
Framework di basso livello utilizzato per creare pipeline ML ad alte prestazioni e accelerate, che spesso includono più modelli di ML combinati con pre e post-elaborazione.
LiteRT
Esegui il deployment di modelli di IA creati in qualsiasi framework su dispositivi mobili, web e microcontroller con accelerazione specifica per hardware ottimizzata.
Struttura multipla
Converti i modelli da JAX, Keras, PyTorch e TensorFlow per l'esecuzione a livello perimetrale.
Piattaforma multipla
Esegui esattamente lo stesso modello su Android, iOS, web e microcontroller con gli SDK nativi.
Leggero e veloce
Il runtime efficiente di LiteRT richiede solo pochi megabyte e consente l'accelerazione del modello su CPU, GPU e NPU.
Inizia
Esplorazione modelli
Esplora visivamente, sottoponi a debug e confronta i tuoi modelli. Sovrapporre i benchmark di rendimento e i valori numerici per individuare gli hotspot problematici.
Gemini Nano in Android e Google Chrome
Crea esperienze di IA generativa utilizzando il modello on-device più potente di Google