Kjo faqe ofron udhëzime për ndërtimin e modeleve tuaja TensorFlow me qëllimin e konvertimit në formatin e modelit LiteRT. Modelet e mësimit të makinerive (ML) që përdorni me LiteRT janë krijuar dhe trajnuar fillimisht duke përdorur bibliotekat dhe mjetet thelbësore të TensorFlow. Pasi të keni ndërtuar një model me bërthamën TensorFlow, mund ta konvertoni atë në një format modeli ML më të vogël dhe më efikas të quajtur modeli LiteRT.
Nëse keni tashmë një model për t'u konvertuar, shihni faqen e përmbledhjes së modeleve të konvertimit për udhëzime mbi konvertimin e modelit tuaj.
Ndërtimi i modelit tuaj
Nëse po ndërtoni një model të personalizuar për rastin tuaj specifik të përdorimit, duhet të filloni me zhvillimin dhe trajnimin e një modeli TensorFlow ose zgjerimin e një modeli ekzistues.
Kufizimet e dizajnit të modelit
Përpara se të filloni procesin e zhvillimit të modelit tuaj, duhet të jeni të vetëdijshëm për kufizimet për modelet LiteRT dhe të ndërtoni modelin tuaj duke pasur parasysh këto kufizime:
- Aftësi të kufizuara llogaritëse - Krahasuar me serverët e pajisur plotësisht me CPU të shumëfishta, kapacitet të lartë memorie dhe procesorë të specializuar si GPU dhe TPU, pajisjet celulare dhe ato të skajshme janë shumë më të kufizuara. Ndërsa ato po rriten në fuqinë llogaritëse dhe përputhshmërinë e specializuar të harduerit, modelet dhe të dhënat që mund të përpunoni në mënyrë efektive me to janë ende të kufizuara në mënyrë të krahasueshme.
- Madhësia e modeleve - Kompleksiteti i përgjithshëm i një modeli, duke përfshirë logjikën e parapërpunimit të të dhënave dhe numrin e shtresave në model, rrit madhësinë e një modeli në memorie. Një model i madh mund të funksionojë në mënyrë të papranueshme të ngadaltë ose thjesht mund të mos përshtatet në memorien e disponueshme të një pajisjeje celulare ose të skajshme.
- Madhësia e të dhënave - Madhësia e të dhënave hyrëse që mund të përpunohen në mënyrë efektive me një model të mësimit të makinerive është e kufizuar në një pajisje celulare ose në skaj. Modelet që përdorin biblioteka të mëdha të dhënash, si bibliotekat e gjuhëve, bibliotekat e imazheve ose bibliotekat e videoklipeve mund të mos përshtaten në këto pajisje dhe mund të kërkojnë zgjidhje të ruajtjes dhe aksesit jashtë pajisjes.
- Operacionet e mbështetura TensorFlow - Mjediset e kohës së funksionimit LiteRT mbështesin një nëngrup të operacioneve të modelit të mësimit të makinerive në krahasim me modelet e rregullta TensorFlow. Ndërsa zhvilloni një model për përdorim me LiteRT, duhet të gjurmoni përputhshmërinë e modelit tuaj kundrejt aftësive të mjediseve të kohës së funksionimit LiteRT.
Për më shumë informacion për ndërtimin e modeleve efektive, të pajtueshme dhe me performancë të lartë për LiteRT, shihni praktikat më të mira të performancës .
Zhvillimi i modelit
Për të ndërtuar një model LiteRT, së pari duhet të ndërtoni një model duke përdorur bibliotekat thelbësore TensorFlow. Bibliotekat kryesore TensorFlow janë bibliotekat e nivelit më të ulët që ofrojnë API për të ndërtuar, trajnuar dhe vendosur modele ML.
TensorFlow ofron dy rrugë për ta bërë këtë. Ju mund të zhvilloni kodin tuaj të modelit të personalizuar ose mund të filloni me një implementim modeli të disponueshëm në TensorFlow Model Garden .
Kopsht model
Kopshti Model TensorFlow ofron implementime të shumë modeleve më të avancuara të mësimit të makinerive (ML) për përpunimin e vizionit dhe gjuhës natyrore (NLP). Do të gjeni gjithashtu mjete të rrjedhës së punës për t'ju lejuar të konfiguroni dhe ekzekutoni shpejt ato modele në grupet standarde të të dhënave. Modelet e mësimit të makinerive në Kopshtin Model përfshijnë kodin e plotë, kështu që ju mund t'i testoni, trajnoni ose ritrajnoni ato duke përdorur grupet tuaja të të dhënave.
Pavarësisht nëse po kërkoni të krahasoni performancën për një model të mirënjohur, të verifikoni rezultatet e kërkimit të publikuar së fundmi ose të zgjeroni modelet ekzistuese, Model Garden mund t'ju ndihmojë të drejtoni qëllimet tuaja ML.
Modele me porosi
Nëse rasti juaj i përdorimit është jashtë atyre që mbështeten nga modelet në Model Garden, mund të përdorni një bibliotekë të nivelit të lartë si Keras për të zhvilluar kodin tuaj të personalizuar të trajnimit. Për të mësuar bazat e TensorFlow, shihni udhëzuesin TensorFlow . Për të filluar me shembujt, shikoni përmbledhjen e mësimeve TensorFlow që përmbajnë tregues për mësimet e nivelit fillestar deri te eksperti.
Vlerësimi i modelit
Pasi të keni zhvilluar modelin tuaj, duhet të vlerësoni performancën e tij dhe ta provoni atë në pajisjet e përdoruesit fundor. TensorFlow ofron disa mënyra për ta bërë këtë.
- TensorBoard është një mjet për të siguruar matjet dhe vizualizimet e nevojshme gjatë rrjedhës së punës së mësimit të makinës. Ai mundëson gjurmimin e metrikave të eksperimentit si humbja dhe saktësia, vizualizimi i grafikut të modelit, projektimi i futjeve në një hapësirë më dimensionale më të ulët dhe shumë më tepër.
- Mjetet e krahasimit janë të disponueshme për çdo platformë të mbështetur, si p.sh. aplikacioni standard i Android dhe aplikacioni standard i iOS. Përdorni këto mjete për të matur dhe llogaritur statistikat për metrika të rëndësishme të performancës.
Optimizimi i modelit
Me kufizimet në burimet specifike për modelet TensorFlow Lite, optimizimi i modelit mund të ndihmojë për të siguruar performancën e mirë të modelit tuaj dhe përdor më pak burime llogaritëse. Performanca e modelit të mësimit të makinerive është zakonisht një ekuilibër midis madhësisë dhe shpejtësisë së përfundimit kundrejt saktësisë. LiteRT aktualisht mbështet optimizimin nëpërmjet kuantizimit, krasitjes dhe grupimit. Shikoni temën e optimizimit të modelit për më shumë detaje mbi këto teknika. TensorFlow gjithashtu ofron një paketë mjetesh për optimizimin e modelit , e cila ofron një API që zbaton këto teknika.
Hapat e ardhshëm
- Për të filluar ndërtimin e modelit tuaj të personalizuar, shihni mësimin e fillimit të shpejtë për fillestarët në dokumentacionin bazë të TensorFlow.
- Për të konvertuar modelin tuaj të personalizuar TensorFlow, shihni përmbledhjen e modeleve të konvertimit .
- Shikoni udhëzuesin e përputhshmërisë së operatorit për të përcaktuar nëse modeli juaj është i pajtueshëm me LiteRT ose nëse do t'ju duhet të ndërmerrni hapa shtesë për ta bërë atë të përputhshëm.
- Shihni udhëzuesin e praktikave më të mira të performancës për udhëzime për t'i bërë modelet tuaja LiteRT efikase dhe performuese.
- Shihni udhëzuesin e matjeve të performancës për të mësuar se si të matni performancën e modelit tuaj duke përdorur mjetet e krahasimit.