Ndërtoni Task API-në tuaj

TensorFlow Lite Task Library ofron API të para-ndërtuara C++, Android dhe iOS në krye të së njëjtës infrastrukturë që abstrakton TensorFlow. Ju mund të zgjeroni infrastrukturën Task API për të ndërtuar API të personalizuara nëse modeli juaj nuk mbështetet nga bibliotekat ekzistuese të detyrave.

Vështrim i përgjithshëm

Infrastruktura Task API ka një strukturë me dy shtresa: shtresa e poshtme C++ që kapsulon kohën e funksionimit TFLite dhe shtresa e sipërme Java/ObjC që komunikon me shtresën C++ përmes JNI ose mbështjellës.

Zbatimi i të gjithë logjikës së TensorFlow vetëm në C++ minimizon koston, maksimizon performancën e konkluzioneve dhe thjeshton rrjedhën e përgjithshme të punës nëpër platforma.

Për të krijuar një klasë Task, zgjeroni BaseTaskApi për të siguruar logjikën e konvertimit midis ndërfaqes së modelit TFLite dhe ndërfaqes Task API, më pas përdorni shërbimet Java/ObjC për të krijuar API-të përkatëse. Me të gjitha detajet e TensorFlow të fshehura, ju mund të vendosni modelin TFLite në aplikacionet tuaja pa ndonjë njohuri për mësimin e makinës.

TensorFlow Lite ofron disa API të parandërtuara për detyrat më të njohura të Visionit dhe NLP . Ju mund të ndërtoni API-të tuaja për detyra të tjera duke përdorur infrastrukturën Task API.

parandërtuar_detyra_apis
Figura 1. API-të e parandërtuara të detyrave

Ndërtoni API-në tuaj me Task API infra

C++ API

Të gjitha detajet e TFLite janë implementuar në C++ API. Krijoni një objekt API duke përdorur një nga funksionet e fabrikës dhe merrni rezultatet e modelit duke thirrur funksionet e përcaktuara në ndërfaqe.

Përdorimi i mostrës

Këtu është një shembull duke përdorur C++ BertQuestionAnswerer për MobileBert .

  char kBertModelPath[] = "path/to/model.tflite";
  // Create the API from a model file
  std::unique_ptr<BertQuestionAnswerer> question_answerer =
      BertQuestionAnswerer::CreateFromFile(kBertModelPath);

  char kContext[] = ...; // context of a question to be answered
  char kQuestion[] = ...; // question to be answered
  // ask a question
  std::vector<QaAnswer> answers = question_answerer.Answer(kContext, kQuestion);
  // answers[0].text is the best answer

Ndërtimi i API-së

detyrë_api
Figura 2. Native Task API

Për të ndërtuar një objekt API, duhet të jepni informacionin e mëposhtëm duke zgjeruar BaseTaskApi

  • Përcaktoni API I/O - API juaj duhet të ekspozojë hyrje/dalje të ngjashme nëpër platforma të ndryshme. p.sh. BertQuestionAnswerer merr dy vargje (std::string& context, std::string& question) si hyrje dhe nxjerr një vektor të përgjigjeve të mundshme dhe probabiliteteve si std::vector<QaAnswer> . Kjo bëhet duke specifikuar llojet përkatëse në parametrin shabllonBaseTaskApi . Me parametrat e shabllonit të specifikuar, funksioni BaseTaskApi::Infer do të ketë llojet e sakta të hyrjes/daljes. Ky funksion mund të thirret drejtpërdrejt nga klientët API, por është një praktikë e mirë për ta mbështjellë atë brenda një funksioni specifik për modelin, në këtë rast, BertQuestionAnswerer::Answer .

    class BertQuestionAnswerer : public BaseTaskApi<
                                  std::vector<QaAnswer>, // OutputType
                                  const std::string&, const std::string& // InputTypes
                                  > {
      // Model specific function delegating calls to BaseTaskApi::Infer
      std::vector<QaAnswer> Answer(const std::string& context, const std::string& question) {
        return Infer(context, question).value();
      }
    }
    
  • Siguroni logjikën e konvertimit midis API I/O dhe tensorit hyrës/dalës të modelit - Me llojet e hyrjes dhe daljes të specifikuara, nënklasat gjithashtu duhet të zbatojnë funksionet e shtypura BaseTaskApi::Preprocess dhe BaseTaskApi::Postprocess . Të dy funksionet ofrojnë hyrje dhe dalje nga TFLite FlatBuffer . Nënklasa është përgjegjëse për caktimin e vlerave nga tensorët API I/O në I/O. Shihni shembullin e plotë të zbatimit në BertQuestionAnswerer .

    class BertQuestionAnswerer : public BaseTaskApi<
                                  std::vector<QaAnswer>, // OutputType
                                  const std::string&, const std::string& // InputTypes
                                  > {
      // Convert API input into tensors
      absl::Status BertQuestionAnswerer::Preprocess(
        const std::vector<TfLiteTensor*>& input_tensors, // input tensors of the model
        const std::string& context, const std::string& query // InputType of the API
      ) {
        // Perform tokenization on input strings
        ...
        // Populate IDs, Masks and SegmentIDs to corresponding input tensors
        PopulateTensor(input_ids, input_tensors[0]);
        PopulateTensor(input_mask, input_tensors[1]);
        PopulateTensor(segment_ids, input_tensors[2]);
        return absl::OkStatus();
      }
    
      // Convert output tensors into API output
      StatusOr<std::vector<QaAnswer>> // OutputType
      BertQuestionAnswerer::Postprocess(
        const std::vector<const TfLiteTensor*>& output_tensors, // output tensors of the model
      ) {
        // Get start/end logits of prediction result from output tensors
        std::vector<float> end_logits;
        std::vector<float> start_logits;
        // output_tensors[0]: end_logits FLOAT[1, 384]
        PopulateVector(output_tensors[0], &end_logits);
        // output_tensors[1]: start_logits FLOAT[1, 384]
        PopulateVector(output_tensors[1], &start_logits);
        ...
        std::vector<QaAnswer::Pos> orig_results;
        // Look up the indices from vocabulary file and build results
        ...
        return orig_results;
      }
    }
    
  • Krijoni funksionet e fabrikës të API - Një skedar modeli dhe një OpResolver nevojiten për të inicializuar tflite::Interpreter . TaskAPIFactory ofron funksione të dobishme për të krijuar instanca BaseTaskApi.

    Ju gjithashtu duhet të siguroni çdo skedar të lidhur me modelin. p.sh., BertQuestionAnswerer mund të ketë gjithashtu një skedar shtesë për fjalorin e tij tokenizues.

    class BertQuestionAnswerer : public BaseTaskApi<
                                  std::vector<QaAnswer>, // OutputType
                                  const std::string&, const std::string& // InputTypes
                                  > {
      // Factory function to create the API instance
      StatusOr<std::unique_ptr<QuestionAnswerer>>
      BertQuestionAnswerer::CreateBertQuestionAnswerer(
          const std::string& path_to_model, // model to passed to TaskApiFactory
          const std::string& path_to_vocab  // additional model specific files
      ) {
        // Creates an API object by calling one of the utils from TaskAPIFactory
        std::unique_ptr<BertQuestionAnswerer> api_to_init;
        ASSIGN_OR_RETURN(
            api_to_init,
            core::TaskAPIFactory::CreateFromFile<BertQuestionAnswerer>(
                path_to_model,
                absl::make_unique<tflite::ops::builtin::BuiltinOpResolver>(),
                kNumLiteThreads));
    
        // Perform additional model specific initializations
        // In this case building a vocabulary vector from the vocab file.
        api_to_init->InitializeVocab(path_to_vocab);
        return api_to_init;
      }
    }
    

Android API

Krijoni API-të Android duke përcaktuar ndërfaqen Java/Kotlin dhe duke deleguar logjikën në shtresën C++ përmes JNI. Android API kërkon që fillimisht të ndërtohet API amtare.

Përdorimi i mostrës

Këtu është një shembull duke përdorur Java BertQuestionAnswerer për MobileBert .

  String BERT_MODEL_FILE = "path/to/model.tflite";
  String VOCAB_FILE = "path/to/vocab.txt";
  // Create the API from a model file and vocabulary file
    BertQuestionAnswerer bertQuestionAnswerer =
        BertQuestionAnswerer.createBertQuestionAnswerer(
            ApplicationProvider.getApplicationContext(), BERT_MODEL_FILE, VOCAB_FILE);

  String CONTEXT = ...; // context of a question to be answered
  String QUESTION = ...; // question to be answered
  // ask a question
  List<QaAnswer> answers = bertQuestionAnswerer.answer(CONTEXT, QUESTION);
  // answers.get(0).text is the best answer

Ndërtimi i API-së

android_task_api
Figura 3. Android Task API

Ngjashëm me API-të vendase, për të ndërtuar një objekt API, klienti duhet të sigurojë informacionin e mëposhtëm duke zgjeruar BaseTaskApi , i cili ofron trajtime JNI për të gjitha API-të e detyrave Java.

  • Përcaktoni API I/O - Kjo zakonisht pasqyron ndërfaqet vendase. p.sh. BertQuestionAnswerer merr (String context, String question) si hyrje dhe dalje List<QaAnswer> . Zbatimi thërret një funksion privat privat me nënshkrim të ngjashëm, përveçse ai ka një parametër shtesë long nativeHandle , që është treguesi i kthyer nga C++.

    class BertQuestionAnswerer extends BaseTaskApi {
      public List<QaAnswer> answer(String context, String question) {
        return answerNative(getNativeHandle(), context, question);
      }
    
      private static native List<QaAnswer> answerNative(
                                            long nativeHandle, // C++ pointer
                                            String context, String question // API I/O
                                           );
    
    }
    
  • Krijoni funksionet e fabrikës të API - Kjo gjithashtu pasqyron funksionet e fabrikës vendase, përveç funksioneve të fabrikës Android gjithashtu duhet të marrin Context për qasje në skedar. Zbatimi thërret një nga shërbimet në TaskJniUtils për të ndërtuar objektin përkatës të C++ API dhe për të kaluar treguesin e tij te konstruktori BaseTaskApi .

      class BertQuestionAnswerer extends BaseTaskApi {
        private static final String BERT_QUESTION_ANSWERER_NATIVE_LIBNAME =
                                                  "bert_question_answerer_jni";
    
        // Extending super constructor by providing the
        // native handle(pointer of corresponding C++ API object)
        private BertQuestionAnswerer(long nativeHandle) {
          super(nativeHandle);
        }
    
        public static BertQuestionAnswerer createBertQuestionAnswerer(
                                            Context context, // Accessing Android files
                                            String pathToModel, String pathToVocab) {
          return new BertQuestionAnswerer(
              // The util first try loads the JNI module with name
              // BERT_QUESTION_ANSWERER_NATIVE_LIBNAME, then opens two files,
              // converts them into ByteBuffer, finally ::initJniWithBertByteBuffers
              // is called with the buffer for a C++ API object pointer
              TaskJniUtils.createHandleWithMultipleAssetFilesFromLibrary(
                  context,
                  BertQuestionAnswerer::initJniWithBertByteBuffers,
                  BERT_QUESTION_ANSWERER_NATIVE_LIBNAME,
                  pathToModel,
                  pathToVocab));
        }
    
        // modelBuffers[0] is tflite model file buffer, and modelBuffers[1] is vocab file buffer.
        // returns C++ API object pointer casted to long
        private static native long initJniWithBertByteBuffers(ByteBuffer... modelBuffers);
    
      }
    
  • Implementimi i modulit JNI për funksionet vendase - Të gjitha metodat vendase Java zbatohen duke thirrur një funksion përkatës vendas nga moduli JNI. Funksionet e fabrikës do të krijonin një objekt API vendas dhe do ta kthenin treguesin e tij si një tip të gjatë në Java. Në thirrjet e mëvonshme në Java API, treguesi i tipit të gjatë i kalohet JNI dhe i kthehet objektit API vendas. Rezultatet e API-së amtare kthehen më pas në rezultatet Java.

    Për shembull, kështu zbatohet bert_question_answerer_jni .

      // Implements BertQuestionAnswerer::initJniWithBertByteBuffers
      extern "C" JNIEXPORT jlong JNICALL
      Java_org_tensorflow_lite_task_text_qa_BertQuestionAnswerer_initJniWithBertByteBuffers(
          JNIEnv* env, jclass thiz, jobjectArray model_buffers) {
        // Convert Java ByteBuffer object into a buffer that can be read by native factory functions
        absl::string_view model =
            GetMappedFileBuffer(env, env->GetObjectArrayElement(model_buffers, 0));
    
        // Creates the native API object
        absl::StatusOr<std::unique_ptr<QuestionAnswerer>> status =
            BertQuestionAnswerer::CreateFromBuffer(
                model.data(), model.size());
        if (status.ok()) {
          // converts the object pointer to jlong and return to Java.
          return reinterpret_cast<jlong>(status->release());
        } else {
          return kInvalidPointer;
        }
      }
    
      // Implements BertQuestionAnswerer::answerNative
      extern "C" JNIEXPORT jobject JNICALL
      Java_org_tensorflow_lite_task_text_qa_BertQuestionAnswerer_answerNative(
      JNIEnv* env, jclass thiz, jlong native_handle, jstring context, jstring question) {
      // Convert long to native API object pointer
      QuestionAnswerer* question_answerer = reinterpret_cast<QuestionAnswerer*>(native_handle);
    
      // Calls the native API
      std::vector<QaAnswer> results = question_answerer->Answer(JStringToString(env, context),
                                             JStringToString(env, question));
    
      // Converts native result(std::vector<QaAnswer>) to Java result(List<QaAnswerer>)
      jclass qa_answer_class =
        env->FindClass("org/tensorflow/lite/task/text/qa/QaAnswer");
      jmethodID qa_answer_ctor =
        env->GetMethodID(qa_answer_class, "<init>", "(Ljava/lang/String;IIF)V");
      return ConvertVectorToArrayList<QaAnswer>(
        env, results,
        [env, qa_answer_class, qa_answer_ctor](const QaAnswer& ans) {
          jstring text = env->NewStringUTF(ans.text.data());
          jobject qa_answer =
              env->NewObject(qa_answer_class, qa_answer_ctor, text, ans.pos.start,
                             ans.pos.end, ans.pos.logit);
          env->DeleteLocalRef(text);
          return qa_answer;
        });
      }
    
      // Implements BaseTaskApi::deinitJni by delete the native object
      extern "C" JNIEXPORT void JNICALL Java_task_core_BaseTaskApi_deinitJni(
          JNIEnv* env, jobject thiz, jlong native_handle) {
        delete reinterpret_cast<QuestionAnswerer*>(native_handle);
      }
    

iOS API

Krijoni API të iOS duke mbështjellë një objekt API vendas në një objekt API ObjC. Objekti i krijuar API mund të përdoret në ObjC ose Swift. iOS API kërkon që fillimisht të ndërtohet API-ja vendase.

Përdorimi i mostrës

Këtu është një shembull duke përdorur ObjC TFLBertQuestionAnswerer për MobileBert në Swift.

  static let mobileBertModelPath = "path/to/model.tflite";
  // Create the API from a model file and vocabulary file
  let mobileBertAnswerer = TFLBertQuestionAnswerer.mobilebertQuestionAnswerer(
      modelPath: mobileBertModelPath)

  static let context = ...; // context of a question to be answered
  static let question = ...; // question to be answered
  // ask a question
  let answers = mobileBertAnswerer.answer(
      context: TFLBertQuestionAnswererTest.context, question: TFLBertQuestionAnswererTest.question)
  // answers.[0].text is the best answer

Ndërtimi i API-së

ios_task_api
Figura 4. iOS Task API

iOS API është një mbështjellës i thjeshtë ObjC në krye të API-së amtare. Ndërtoni API-në duke ndjekur hapat e mëposhtëm:

  • Përcaktoni mbështjellësin ObjC - Përcaktoni një klasë ObjC dhe delegoni implementimet në objektin përkatës të API-së. Vini re se varësitë vendase mund të shfaqen vetëm në një skedar .mm për shkak të pamundësisë së Swift për të ndërvepruar me C++.

    • skedar .h
      @interface TFLBertQuestionAnswerer : NSObject
    
      // Delegate calls to the native BertQuestionAnswerer::CreateBertQuestionAnswerer
      + (instancetype)mobilebertQuestionAnswererWithModelPath:(NSString*)modelPath
                                                    vocabPath:(NSString*)vocabPath
          NS_SWIFT_NAME(mobilebertQuestionAnswerer(modelPath:vocabPath:));
    
      // Delegate calls to the native BertQuestionAnswerer::Answer
      - (NSArray<TFLQAAnswer*>*)answerWithContext:(NSString*)context
                                         question:(NSString*)question
          NS_SWIFT_NAME(answer(context:question:));
    }
    
    • skedar .mm
      using BertQuestionAnswererCPP = ::tflite::task::text::BertQuestionAnswerer;
    
      @implementation TFLBertQuestionAnswerer {
        // define an iVar for the native API object
        std::unique_ptr<QuestionAnswererCPP> _bertQuestionAnswerwer;
      }
    
      // Initialize the native API object
      + (instancetype)mobilebertQuestionAnswererWithModelPath:(NSString *)modelPath
                                              vocabPath:(NSString *)vocabPath {
        absl::StatusOr<std::unique_ptr<QuestionAnswererCPP>> cQuestionAnswerer =
            BertQuestionAnswererCPP::CreateBertQuestionAnswerer(MakeString(modelPath),
                                                                MakeString(vocabPath));
        _GTMDevAssert(cQuestionAnswerer.ok(), @"Failed to create BertQuestionAnswerer");
        return [[TFLBertQuestionAnswerer alloc]
            initWithQuestionAnswerer:std::move(cQuestionAnswerer.value())];
      }
    
      // Calls the native API and converts C++ results into ObjC results
      - (NSArray<TFLQAAnswer *> *)answerWithContext:(NSString *)context question:(NSString *)question {
        std::vector<QaAnswerCPP> results =
          _bertQuestionAnswerwer->Answer(MakeString(context), MakeString(question));
        return [self arrayFromVector:results];
      }
    }