LiteRT ofron një rrugë për të konvertuar modelet JAX për inferencë në pajisje duke shfrytëzuar ekosistemin TensorFlow. Procesi përfshin një konvertim me dy hapa: së pari nga JAX në TensorFlow SavedModel, dhe pastaj nga SavedModel në formatin .tflite.
Procesi i konvertimit
JAX në TensorFlow SavedModel duke përdorur
jax2tf: Hapi i parë është të konvertoni modelin tuaj JAX në formatin TensorFlow SavedModel. Kjo bëhet duke përdorur mjetinjax2tf, i cili është një veçori eksperimentale eksperimentale e JAX.jax2tfju lejon të konvertoni funksionet JAX në grafikë TensorFlow.Për udhëzime të hollësishme dhe shembuj se si të përdorni
jax2tf, ju lutemi referojuni dokumentacionit zyrtarjax2tf: https://github.com/jax-ml/jax/blob/main/jax/experimental/jax2tf/README.mdKy proces zakonisht përfshin mbështjelljen e funksionit të parashikimit të modelit tuaj JAX me
jax2tf.convertdhe më pas ruajtjen e tij duke përdorurtf.saved_model.savetë TensorFlow.TensorFlow SavedModel në TFLite: Pasi ta keni modelin tuaj në formatin TensorFlow SavedModel, mund ta konvertoni atë në formatin TFLite duke përdorur konvertuesin standard TensorFlow Lite. Ky proces optimizon modelin për ekzekutimin në pajisje, duke zvogëluar madhësinë e tij dhe duke përmirësuar performancën.
Udhëzimet e hollësishme për konvertimin e një TensorFlow SavedModel në TFLite mund të gjenden në udhëzuesin e konvertimit të modelit TensorFlow .
Ky udhëzues mbulon opsione të ndryshme dhe praktikat më të mira për procesin e konvertimit, duke përfshirë kuantizimin dhe optimizime të tjera.
Duke ndjekur këto dy hapa, ju mund të merrni modelet tuaja të zhvilluara në JAX dhe t'i vendosni ato në mënyrë efikase në pajisjet e skajit duke përdorur kohën e ekzekutimit LiteRT.