テキスト検索では、コーパス内で意味的に類似したテキストを検索できます。効果がある ベクトルに検索クエリを埋め込み、 クエリの意味を理解したうえで、類似性検索を カスタム インデックスを使用 ScaNN (スケーラブルな最近傍探索)。
テキスト分類(例: BERT 自然言語分類器) 認識できるアイテムの数を増やしても再トレーニングは不要 モデル全体を表します。インデックスを再構築するだけで、新しいアイテムを追加できます。また、 では、大規模な(10 万以上のアイテム)コーパスで作業できます。
タスク ライブラリの TextSearcher
API を使用してカスタム テキスト検索ツールをデプロイする
管理できます。
TextSearcher API の主な機能
前提条件
TextSearcher
API を使用する前に、
カスタム コーパスを指定します。これを行うには、
Model Maker Searcher API
それに適応することで、
チュートリアルをご覧ください。
以下のものが必要です。
- Universal Sentence Encoder などの TFLite テキスト埋め込みモデル。対象 例: <ph type="x-smartling-placeholder">
- 生成できます。
このステップを終えると、スタンドアロンの TFLite サーチャー モデル(
mobilenet_v3_searcher.tflite
など)を含む、オリジナルのテキスト埋め込みモデルです。
アタッチされたインデックスを
TFLite モデル メタデータ。
Java で推論を実行する
ステップ 1: Gradle の依存関係とその他の設定をインポートする
.tflite
サーチャー モデルファイルを Android のアセット ディレクトリにコピーします。
モデルを実行するモジュールですこのファイルの内容が
モジュールの build.gradle
に TensorFlow Lite ライブラリを追加します。
ファイル:
android {
// Other settings
// Specify tflite index file should not be compressed for the app apk
aaptOptions {
noCompress "tflite"
}
}
dependencies {
// Other dependencies
// Import the Task Vision Library dependency
implementation 'org.tensorflow:tensorflow-lite-task-vision:0.4.4'
// Import the GPU delegate plugin Library for GPU inference
implementation 'org.tensorflow:tensorflow-lite-gpu-delegate-plugin:0.4.4'
}
ステップ 2: モデルを使用する
// Initialization
TextSearcherOptions options =
TextSearcherOptions.builder()
.setBaseOptions(BaseOptions.builder().useGpu().build())
.setSearcherOptions(
SearcherOptions.builder().setL2Normalize(true).build())
.build();
TextSearcher textSearcher =
textSearcher.createFromFileAndOptions(context, modelFile, options);
// Run inference
List<NearestNeighbor> results = textSearcher.search(text);
詳しくは、
ソースコードと javadoc
TextSearcher
を構成するその他のオプションをご覧ください。
C++ で推論を実行する
// Initialization
TextSearcherOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
options.mutable_embedding_options()->set_l2_normalize(true);
std::unique_ptr<TextSearcher> text_searcher = TextSearcher::CreateFromOptions(options).value();
// Run inference with your input, `input_text`.
const SearchResult result = text_searcher->Search(input_text).value();
詳しくは、
ソースコード
TextSearcher
を構成するその他のオプションをご覧ください。
Python で推論を実行する
ステップ 1: TensorFlow Lite サポート Pypi パッケージをインストールする
以下を使用して、TensorFlow Lite サポート Pypi パッケージをインストールできます。 command:
pip install tflite-support
ステップ 2: モデルを使用する
from tflite_support.task import text
# Initialization
text_searcher = text.TextSearcher.create_from_file(model_path)
# Run inference
result = text_searcher.search(text)
詳しくは、
ソースコード
TextSearcher
を構成するその他のオプションをご覧ください。
検索結果の例
Results:
Rank#0:
metadata: The sun was shining on that day.
distance: 0.04618
Rank#1:
metadata: It was a sunny day.
distance: 0.10856
Rank#2:
metadata: The weather was excellent.
distance: 0.15223
Rank#3:
metadata: The cat is chasing after the mouse.
distance: 0.34271
Rank#4:
metadata: He was very happy with his newly bought car.
distance: 0.37703
シンプルな TextSearcher 用の CLI デモツール 独自のモデルとテストデータで トレーニングできます