Modelli preaddestrati per LiteRT

È disponibile una serie di modelli open source già addestrati, e immediatamente con LiteRT per svolgere molte attività di machine learning. L'utilizzo di modelli LiteRT preaddestrati ti consente di aggiungere rapidamente le funzionalità alle applicazioni per dispositivi mobili e periferici, senza per creare e addestrare un modello. Questa guida ti aiuta a trovare e scegliere per l'uso con LiteRT.

Puoi iniziare a sfogliare un ampio ventaglio di modelli su Kaggle Modelli.

Trova un modello per la tua applicazione

Trovare un modello LiteRT esistente per il tuo caso d'uso può essere difficile a seconda di ciò che stai cercando di ottenere. Ecco alcuni modi consigliati per scoprire modelli da utilizzare con LiteRT:

Ad esempio: il modo più rapido per trovare e iniziare a utilizzare modelli con TensorFlow Lite deve sfogliare LiteRT Esempi per trovare modelli che eseguono un'attività simile al tuo caso d'uso. Questo breve catalogo di esempi fornisce modelli per i casi d'uso comuni spiegazioni dei modelli e del codice campione per iniziare a eseguire e utilizzare che li rappresentano.

Per tipo di input di dati: oltre a esaminare esempi simili al tuo caso d'uso, un altro modo per scoprire modelli da usare è considerare il tipo di dati che vuoi elaborare, ad esempio dati audio, di testo, immagini o video. Macchina vengono spesso progettati per essere usati con uno di questi tipi di dati, Pertanto, la ricerca di modelli che gestiscono il tipo di dati che vuoi utilizzare può aiutarti individuare i modelli da prendere in considerazione.

Di seguito sono elencati i link ai modelli LiteRT su Kaggle Modelli per casi d'uso comuni:

Scegli tra modelli simili

Se la tua applicazione segue un caso d'uso comune, come la classificazione delle immagini o di oggetti Kubernetes, potresti decidere tra più risorse TensorFlow Modelli Lite, con dimensioni binarie, dimensioni di input dei dati, velocità di inferenza e l'accuratezza delle previsioni. Quando scegli tra vari modelli, dovrebbe restringere le opzioni in base al vincolo più limitante: la dimensione modello, dimensione dei dati, velocità di inferenza o accuratezza.

Se non sai quale sia il tuo vincolo più limitante, supponiamo che si tratti delle dimensioni del modello e si sceglie il modello più piccolo disponibile. La scelta di un modello piccolo permette la massima flessibilità in termini di dispositivi su cui è possibile il deployment e l'esecuzione del modello. Inoltre, i modelli più piccoli in genere producono le inferenze e le previsioni più veloci in genere creano un ed esperienze variegate. I modelli più piccoli hanno tipicamente tassi di accuratezza inferiori, quindi potresti dover per scegliere modelli più grandi se la tua preoccupazione principale è l'accuratezza della previsione.

Origini dei modelli

Utilizza LiteRT Esempi e i modelli Kaggle come le tue prime destinazioni per trovare e selezionare i modelli da utilizzare con TensorFlow Lite. Queste fonti di solito dispongono di modelli selezionati e aggiornati da utilizzare con LiteRT e spesso includi codice campione per accelerare il processo di sviluppo.

Modelli TensorFlow

È possibile convertire i modelli TensorFlow regolari in TensorFlow Formato Lite. Per ulteriori informazioni sulla conversione dei modelli, consulta lo strumento TensorFlow Lite Converter. I modelli TensorFlow sono disponibili Modelli Kaggle e nel modello TensorFlow Giardino.