テキスト検索ユーザーを統合する

テキスト検索では、コーパス内で意味的に類似したテキストを検索できます。効果がある ベクトルに検索クエリを埋め込み、 クエリの意味を理解したうえで、類似性検索を カスタム インデックスを使用 ScaNN (スケーラブルな最近傍探索)。

テキスト分類(例: BERT 自然言語分類器) 認識できるアイテムの数を増やしても再トレーニングは不要 モデル全体を表します。インデックスを再構築するだけで、新しいアイテムを追加できます。また、 では、大規模な(10 万以上のアイテム)コーパスで作業できます。

タスク ライブラリの TextSearcher API を使用してカスタム テキスト検索ツールをデプロイする 管理できます。

TextSearcher API の主な機能

  • 単一の文字列を入力として受け取り、エンべディング抽出を行い、 最近傍探索を実行します

  • グラフ内またはグラフ外を含む入力テキスト処理 ワードピース または 入力テキストのトークン化も学習します。

前提条件

TextSearcher API を使用する前に、 カスタム コーパスを指定します。これを行うには、 Model Maker Searcher API それに適応することで、 チュートリアルをご覧ください。

以下のものが必要です。

  • Universal Sentence Encoder などの TFLite テキスト埋め込みモデル。対象 例: <ph type="x-smartling-placeholder">
      </ph>
    • 1 再トレーニングされ、 Colab オンデバイス推論に最適化されていますわずか 6 ミリ秒で、 テキスト文字列が表示されます。
    • 量子化 1 つは上記よりも小さいですが、エンベディングごとに 38 ミリ秒かかります。
  • 生成できます。

このステップを終えると、スタンドアロンの TFLite サーチャー モデル( mobilenet_v3_searcher.tflite など)を含む、オリジナルのテキスト埋め込みモデルです。 アタッチされたインデックスを TFLite モデル メタデータ

Java で推論を実行する

ステップ 1: Gradle の依存関係とその他の設定をインポートする

.tflite サーチャー モデルファイルを Android のアセット ディレクトリにコピーします。 モデルを実行するモジュールですこのファイルの内容が モジュールの build.gradle に TensorFlow Lite ライブラリを追加します。 ファイル:

android {
    // Other settings

    // Specify tflite index file should not be compressed for the app apk
    aaptOptions {
        noCompress "tflite"
    }

}

dependencies {
    // Other dependencies

    // Import the Task Vision Library dependency
    implementation 'org.tensorflow:tensorflow-lite-task-vision:0.4.4'
    // Import the GPU delegate plugin Library for GPU inference
    implementation 'org.tensorflow:tensorflow-lite-gpu-delegate-plugin:0.4.4'
}

ステップ 2: モデルを使用する

// Initialization
TextSearcherOptions options =
    TextSearcherOptions.builder()
        .setBaseOptions(BaseOptions.builder().useGpu().build())
        .setSearcherOptions(
            SearcherOptions.builder().setL2Normalize(true).build())
        .build();
TextSearcher textSearcher =
    textSearcher.createFromFileAndOptions(context, modelFile, options);

// Run inference
List<NearestNeighbor> results = textSearcher.search(text);

詳しくは、 ソースコードと javadoc TextSearcher を構成するその他のオプションをご覧ください。

C++ で推論を実行する

// Initialization
TextSearcherOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
options.mutable_embedding_options()->set_l2_normalize(true);
std::unique_ptr<TextSearcher> text_searcher = TextSearcher::CreateFromOptions(options).value();

// Run inference with your input, `input_text`.
const SearchResult result = text_searcher->Search(input_text).value();

詳しくは、 ソースコード TextSearcher を構成するその他のオプションをご覧ください。

Python で推論を実行する

ステップ 1: TensorFlow Lite サポート Pypi パッケージをインストールする

以下を使用して、TensorFlow Lite サポート Pypi パッケージをインストールできます。 command:

pip install tflite-support

ステップ 2: モデルを使用する

from tflite_support.task import text

# Initialization
text_searcher = text.TextSearcher.create_from_file(model_path)

# Run inference
result = text_searcher.search(text)

詳しくは、 ソースコード TextSearcher を構成するその他のオプションをご覧ください。

検索結果の例

Results:
 Rank#0:
  metadata: The sun was shining on that day.
  distance: 0.04618
 Rank#1:
  metadata: It was a sunny day.
  distance: 0.10856
 Rank#2:
  metadata: The weather was excellent.
  distance: 0.15223
 Rank#3:
  metadata: The cat is chasing after the mouse.
  distance: 0.34271
 Rank#4:
  metadata: He was very happy with his newly bought car.
  distance: 0.37703

シンプルな TextSearcher 用の CLI デモツール 独自のモデルとテストデータで トレーニングできます