Modelli preaddestrati per TensorFlow Lite

È disponibile una varietà di modelli open source già addestrati che puoi usare immediatamente con TensorFlow Lite per svolgere molte attività di machine learning. L'utilizzo di modelli TensorFlow Lite preaddestrati consente di aggiungere rapidamente funzionalità di machine learning alle tue applicazioni per dispositivi mobili e periferici, senza dover creare e addestrare un modello. Questa guida ti aiuta a trovare e scegliere i modelli addestrati da usare con TensorFlow Lite.

Puoi iniziare a sfogliare un ampio set di modelli su Modelli Kaggle.

Trova un modello per la tua applicazione

Trovare un modello TensorFlow Lite esistente per il tuo caso d'uso può essere complicato a seconda di ciò che stai cercando di ottenere. Ecco alcuni modi consigliati per scoprire modelli da utilizzare con TensorFlow Lite:

Ad esempio: il modo più rapido per trovare e iniziare a utilizzare modelli con TensorFlow Lite è consultare la sezione Esempi di TensorFlow per trovare modelli che eseguono un'attività simile al tuo caso d'uso. Questo breve catalogo di esempi fornisce modelli per casi d'uso comuni con spiegazioni dei modelli e del codice campione per aiutarti a iniziare a eseguirli e utilizzarli.

Per tipo di input di dati: oltre a esaminare esempi simili al tuo caso d'uso, un altro modo per trovare modelli utilizzabili personalmente è considerare il tipo di dati che vuoi elaborare, come dati audio, di testo, immagini o video. I modelli di machine learning sono spesso progettati per l'utilizzo con uno di questi tipi di dati, quindi la ricerca di modelli che gestiscono il tipo di dati che vuoi utilizzare può aiutarti a restringere la scelta dei modelli da prendere in considerazione.

Di seguito sono elencati i link ai modelli TensorFlow Lite sui modelli Kaggle per i casi d'uso comuni:

Scegli tra modelli simili

Se la tua applicazione segue un caso d'uso comune come la classificazione delle immagini o il rilevamento di oggetti, potresti dover scegliere tra più modelli TensorFlow Lite, con variazioni relative a dimensioni binarie, dimensioni di input di dati, velocità di inferenza e precisione della previsione. Quando scegli tra vari modelli, dovresti restringere le opzioni in base prima al vincolo più limitante: dimensione del modello, dimensione dei dati, velocità di inferenza o accuratezza.

Se non sai con certezza quale sia il tuo vincolo più limitante, supponiamo che si tratti della dimensione del modello e scegli il modello più piccolo disponibile. La scelta di un modello di piccole dimensioni offre la massima flessibilità in termini di dispositivi su cui puoi eseguire correttamente il deployment e l'esecuzione del modello. Anche i modelli più piccoli producono in genere inferenze più rapide e previsioni più veloci generalmente creano esperienze migliori per l'utente finale. I modelli più piccoli hanno in genere tassi di accuratezza inferiori, quindi potrebbe essere necessario scegliere modelli più grandi se la tua preoccupazione principale è l'accuratezza della previsione.

Origini dei modelli

Utilizza la sezione Esempi di TensorFlow e Modelli Kaggle come primi destinazioni per trovare e selezionare i modelli da utilizzare con TensorFlow Lite. Queste origini in genere dispongono di modelli selezionati e aggiornati da utilizzare con TensorFlow Lite e spesso includono codice campione per accelerare il processo di sviluppo.

Modelli TensorFlow

È possibile convertire i modelli TensorFlow regolari nel formato TensorFlow Lite. Per ulteriori informazioni sulla conversione dei modelli, consulta la documentazione relativa al convertitore TensorFlow. Puoi trovare i modelli TensorFlow nei modelli Kaggle e in TensorFlow Model Garden.