整合 BERT 自然語言分類器

工作程式庫 BertNLClassifier API 與 NLClassifier 非常類似 這項 API 會將輸入內容 特別針對需要 WordCode 和 WordPress 的 Bert 相關模型 TFLite 模型以外的語句符記化。

BertNLClassifier API 的主要功能

  • 取用單一字串做為輸入內容,對字串執行分類,並 會輸出 <label, score="">分類成分類結果</label,>

  • 執行非圖形的詞曲語句 符記化

支援的 BertNLClassifier 模型

下列型號與 BertNLClassifier API 相容。

在 Java 中執行推論

步驟 1:匯入 Gradle 依附元件和其他設定

.tflite 模型檔案複製到 Android 模組的資產目錄 以便訓練模型指定不要壓縮檔案,且 將 TensorFlow Lite 程式庫新增至模組的 build.gradle 檔案:

android {
    // Other settings

    // Specify tflite file should not be compressed for the app apk
    aaptOptions {
        noCompress "tflite"
    }

}

dependencies {
    // Other dependencies

    // Import the Task Text Library dependency
    implementation 'org.tensorflow:tensorflow-lite-task-text:0.4.4'
}

步驟 2:使用 API 執行推論

// Initialization
BertNLClassifierOptions options =
    BertNLClassifierOptions.builder()
        .setBaseOptions(BaseOptions.builder().setNumThreads(4).build())
        .build();
BertNLClassifier classifier =
    BertNLClassifier.createFromFileAndOptions(context, modelFile, options);

// Run inference
List<Category> results = classifier.classify(input);

請參閱原始碼 程式碼 ,掌握更多詳細資訊。

在 Swift 中執行推論

步驟 1:匯入 CocoaPods

在 Podfile 中新增 TensorFlowLiteTaskText Pod

target 'MySwiftAppWithTaskAPI' do
  use_frameworks!
  pod 'TensorFlowLiteTaskText', '~> 0.4.4'
end

步驟 2:使用 API 執行推論

// Initialization
let bertNLClassifier = TFLBertNLClassifier.bertNLClassifier(
      modelPath: bertModelPath)

// Run inference
let categories = bertNLClassifier.classify(text: input)

請參閱原始碼 程式碼 ,掌握更多詳細資訊。

在 C++ 中執行推論

// Initialization
BertNLClassifierOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
std::unique_ptr<BertNLClassifier> classifier = BertNLClassifier::CreateFromOptions(options).value();

// Run inference with your input, `input_text`.
std::vector<core::Category> categories = classifier->Classify(input_text);

請參閱原始碼 程式碼 ,掌握更多詳細資訊。

在 Python 中執行推論

步驟 1:安裝 pip 套件

pip install tflite-support

步驟 2:使用模型

# Imports
from tflite_support.task import text

# Initialization
classifier = text.BertNLClassifier.create_from_file(model_path)

# Run inference
text_classification_result = classifier.classify(text)

請參閱原始碼 程式碼 取得更多設定 BertNLClassifier 的選項。

搜尋結果範例

以下舉例說明電影評論的分類結果 MobileBert 模型。

輸入內容:「我很有魅力,經常影響旅途中」

輸出:

category[0]: 'negative' : '0.00006'
category[1]: 'positive' : '0.99994'

試用簡單的 CLI 示範工具, BertNLClassifier 使用自己的模型與測試資料

模型相容性需求

BetNLClassifier API 預期的 TFLite 模型須搭配必要的 TFLite 模型 中繼資料

中繼資料應符合下列要求:

  • Wordpart/Sentencepart Tokenizer 的 input_process_units

  • 3 個名稱為「id」和「mask」的輸入張量和「segment_ids」輸出 符記化工具

  • 1 個 float32 類型的輸出張量,具有選擇性的附加標籤檔案。如果 已附加標籤檔案,檔案應為含有一個標籤的純文字檔案 且標籤數量應與 模型輸出值