Esegui il deployment dell'IA in applicazioni mobile, web e incorporate

  • Sul dispositivo

    Riduci la latenza. Lavora offline. Mantieni i tuoi dati locali e privato.

  • Piattaforma multipla

    Esegui lo stesso modello su Android, iOS, web e in modalità incorporata.

  • Struttura multipla

    Compatibile con i modelli JAX, Keras, PyTorch e TensorFlow.

  • Edge stack completo IA

    Framework flessibili, soluzioni pronte all'uso, acceleratori hardware

Soluzioni pronte per l'uso e framework flessibili

API low-code per attività di IA comuni

API multipiattaforma per gestire attività comuni di AI generativa, visione, testo e audio.

Inizia a utilizzare le attività MediaPipe

Esegui il deployment di modelli personalizzati su più piattaforme

Esegui modelli JAX, Keras, PyTorch e TensorFlow su Android, iOS, web e dispositivi embedded, ottimizzati per il ML tradizionale e l'IA generativa.

Guida introduttiva a LiteRT
Caratteristica 2

Abbrevia i cicli di sviluppo con la visualizzazione

Visualizza la trasformazione del modello tramite conversione e quantizzazione. Hotspot di debug per sovrapponendo i risultati dei benchmark.

Inizia a utilizzare Esplorazione modelli
Caratteristica 1

Crea pipeline personalizzate per funzionalità ML complesse

Crea la tua attività incatenando in modo efficiente più modelli ML insieme alla logica di pre e post-elaborazione. Esegui pipeline accelerate (GPU e NPU) senza blocchi sulla CPU. 

Guida introduttiva al framework MediaPipe
Caratteristica 2

Gli strumenti e i framework alla base delle app di Google

Esplora l'intera AI edge stack, con prodotti a ogni livello, dalle API low-code alle librerie di accelerazione specifiche per l'hardware.

Attività di MediaPipe

Integra rapidamente funzionalità di IA in app mobile e web utilizzando API low code per le attività comuni di IA generativa, visione artificiale, testo e audio.

AI generativa

Integra modelli di linguaggio e immagini generativi direttamente nelle tue app con API pronte all'uso.

Vision

Esplora una vasta gamma di attività di visione che spaziano dalla segmentazione, alla classificazione, al rilevamento, al riconoscimento e ai punti di riferimento del corpo.

Testo e audio

Classifica il testo e l'audio in molte categorie, incluse lingua, sentiment e categorie personalizzate.

Framework MediaPipe

Un framework di basso livello utilizzato per creare pipeline di ML accelerate ad alte prestazioni, spesso con più modelli di ML combinati con l'elaborazione precedente e successiva.

LiteRT

Esegui il deployment di modelli di IA creati in qualsiasi framework su dispositivi mobili, web e microcontroller con accelerazione specifica hardware ottimizzata.

Struttura multipla

Converti i modelli da JAX, Keras, PyTorch e TensorFlow per eseguirli all'edge.

Piattaforma multipla

Esegui lo stesso identico modello su Android, iOS, web e microcontrollori con SDK nativi.

Leggero e veloce

Il runtime efficiente di LiteRT occupa solo pochi megabyte e consente l'accelerazione del modello su CPU, GPU e NPU.

Esplorazione modelli

Esplora visivamente, sottoponi a debug e confronta i tuoi modelli. Sovrapponi benchmark e dati numerici sul rendimento per individuare gli hotspot problematici.

nano personaggi

Video e post del blog recenti