Modelli TensorFlow e Keras preaddestrati per LiteRT

Esistono diversi modelli open source già addestrati che puoi utilizzare immediatamente con LiteRT per svolgere molte attività di machine learning. L'utilizzo di modelli LiteRT preaddestrati ti consente di aggiungere rapidamente funzionalità di machine learning alla tua applicazione mobile e per dispositivi edge, senza dover creare e addestrare un modello. Questa guida ti aiuta a trovare e scegliere i modelli addestrati da utilizzare con LiteRT.

Puoi iniziare a sfogliare un ampio set di modelli su Kaggle Models.

Trovare un modello per la tua applicazione

Trovare un modello LiteRT esistente per il tuo caso d'uso può essere difficile a seconda di ciò che stai cercando di ottenere. Ecco alcuni modi consigliati per scoprire modelli da utilizzare con LiteRT:

Per esempio:il modo più rapido per trovare e iniziare a utilizzare i modelli con TensorFlow Lite è sfogliare la sezione Esempi LiteRT per trovare modelli che eseguono un'attività simile al tuo caso d'uso. Questo breve catalogo di esempi fornisce modelli per casi d'uso comuni con spiegazioni dei modelli e codice campione per iniziare a eseguirli e utilizzarli.

Per tipo di input di dati:oltre a esaminare esempi simili al tuo caso d'uso, un altro modo per scoprire modelli per il tuo utilizzo è considerare il tipo di dati che vuoi elaborare, ad esempio dati audio, di testo, di immagini o video. I modelli di machine learning vengono spesso progettati per essere utilizzati con uno di questi tipi di dati, quindi cercare modelli che gestiscano il tipo di dati che vuoi utilizzare può aiutarti a restringere il campo dei modelli da prendere in considerazione.

Di seguito sono riportati i link ai modelli LiteRT su Kaggle Models per i casi d'uso comuni:

Scegliere tra modelli simili

Se la tua applicazione segue un caso d'uso comune, come la classificazione delle immagini o il rilevamento degli oggetti, potresti trovarti a scegliere tra più modelli TensorFlow Lite, con dimensioni binarie, dimensioni dell'input di dati, velocità di inferenza e valutazioni dell'accuratezza della previsione variabili. Quando scegli tra più modelli, devi restringere le opzioni in base al vincolo più limitante: dimensione del modello, dimensione dei dati, velocità di inferenza o accuratezza.

Se non sai qual è il vincolo più limitante, supponi che sia la dimensione del modello e scegli il modello più piccolo disponibile. La scelta di un modello piccolo offre la massima flessibilità in termini di dispositivi su cui puoi eseguire il deployment e l'esecuzione del modello. Inoltre, i modelli più piccoli in genere producono inferenze più rapide e previsioni più veloci creano in genere esperienze utente finali migliori. I modelli più piccoli in genere hanno tassi di accuratezza inferiori, quindi potresti dover scegliere modelli più grandi se l'accuratezza della previsione è la tua preoccupazione principale.

Origini dei modelli

Utilizza la sezione Esempi LiteRT e Modelli Kaggle come prime destinazioni per trovare e selezionare i modelli da utilizzare con TensorFlow Lite. Queste origini in genere dispongono di modelli aggiornati e curati da utilizzare con LiteRT e spesso includono codice di esempio per accelerare il processo di sviluppo.

Modelli TensorFlow

È possibile convertire i normali modelli TensorFlow nel formato TensorFlow Lite. Per ulteriori informazioni sulla conversione dei modelli, consulta la documentazione di TensorFlow Lite Converter. Puoi trovare modelli TensorFlow in Kaggle Models e in TensorFlow Model Garden.