A pesquisa de texto permite procurar textos semanticamente semelhantes em um corpus. Ele funciona incorporando a consulta de pesquisa em um vetor de alta dimensão que representa o significado semântico da consulta, seguido de uma pesquisa de similaridade em um índice personalizado predefinido usando o ScaNN (Scalable Nearest Neighbors).
Ao contrário da classificação de texto (por exemplo, o classificador de linguagem natural do BERT), aumentar o número de itens que podem ser reconhecidos não exige o retreinamento de todo o modelo. Novos itens podem ser adicionados simplesmente reconstruindo o índice. Isso também permite trabalhar com corpus maiores (mais de 100 mil itens).
Use a API Task Library TextSearcher para implantar seu pesquisador de texto personalizado nos
apps para dispositivos móveis.
Principais recursos da API TextSearcher
Usa uma única string como entrada, realiza a extração de incorporação e a pesquisa de vizinho mais próximo no índice.
Processamento de texto de entrada, incluindo tokenizações Wordpiece ou Sentencepiece no gráfico ou fora dele.
Pré-requisitos
Antes de usar a API TextSearcher, é necessário criar um índice com base no corpus personalizado de texto para pesquisar. Isso pode ser feito usando a API Model Maker
Searcher
seguindo e adaptando o tutorial.
Para isso, você vai precisar de:
- um modelo de incorporador de texto do TFLite, como o Universal Sentence Encoder. Por exemplo,
- o único retreinado neste Colab, que é otimizado para inferência no dispositivo. Leva apenas 6 ms para consultar uma string de texto no Pixel 6.
- o quantizado, que é menor que o acima, mas leva 38 ms para cada incorporação.
- seu corpus de texto.
Depois dessa etapa, você terá um modelo de pesquisa independente do TFLite (por exemplo,
mobilenet_v3_searcher.tflite), que é o modelo de incorporação de texto original com
o índice anexado aos metadados do modelo do TFLite.
Executar inferência em Java
Etapa 1: importar a dependência do Gradle e outras configurações
Copie o arquivo de modelo de pesquisa .tflite para o diretório de recursos do módulo
Android em que o modelo será executado. Especifique que o arquivo não deve ser
compactado e adicione a biblioteca do TensorFlow Lite ao arquivo build.gradle
do módulo:
android {
// Other settings
// Specify tflite index file should not be compressed for the app apk
aaptOptions {
noCompress "tflite"
}
}
dependencies {
// Other dependencies
// Import the Task Vision Library dependency
implementation 'org.tensorflow:tensorflow-lite-task-vision:0.4.4'
// Import the GPU delegate plugin Library for GPU inference
implementation 'org.tensorflow:tensorflow-lite-gpu-delegate-plugin:0.4.4'
}
Etapa 2: usar o modelo
// Initialization
TextSearcherOptions options =
TextSearcherOptions.builder()
.setBaseOptions(BaseOptions.builder().useGpu().build())
.setSearcherOptions(
SearcherOptions.builder().setL2Normalize(true).build())
.build();
TextSearcher textSearcher =
textSearcher.createFromFileAndOptions(context, modelFile, options);
// Run inference
List<NearestNeighbor> results = textSearcher.search(text);
Consulte o código-fonte e o
javadoc
para mais opções de configuração do TextSearcher.
Executar inferência em C++
// Initialization
TextSearcherOptions options;
options.mutable_base_options()->mutable_model_file()->set_file_name(model_path);
options.mutable_embedding_options()->set_l2_normalize(true);
std::unique_ptr<TextSearcher> text_searcher = TextSearcher::CreateFromOptions(options).value();
// Run inference with your input, `input_text`.
const SearchResult result = text_searcher->Search(input_text).value();
Consulte o código-fonte para mais opções de configuração do TextSearcher.
Executar inferência em Python
Etapa 1: instale o pacote Pypi de suporte do TensorFlow Lite.
Instale o pacote Pypi de suporte do TensorFlow Lite usando o seguinte comando:
pip install tflite-support
Etapa 2: usar o modelo
from tflite_support.task import text
# Initialization
text_searcher = text.TextSearcher.create_from_file(model_path)
# Run inference
result = text_searcher.search(text)
Consulte o código-fonte para mais opções de configuração do TextSearcher.
Resultados de exemplo
Results:
Rank#0:
metadata: The sun was shining on that day.
distance: 0.04618
Rank#1:
metadata: It was a sunny day.
distance: 0.10856
Rank#2:
metadata: The weather was excellent.
distance: 0.15223
Rank#3:
metadata: The cat is chasing after the mouse.
distance: 0.34271
Rank#4:
metadata: He was very happy with his newly bought car.
distance: 0.37703
Teste a ferramenta de demonstração da CLI simples para TextSearcher com seu próprio modelo e dados de teste.