Python용 텍스트 삽입 가이드

MediaPipe 텍스트 임베딩 태스크를 사용하면 텍스트 데이터의 숫자 표현을 만들어 시맨틱 의미를 캡처할 수 있습니다. 이 안내에서는 Python에서 텍스트 임베딩을 사용하는 방법을 보여줍니다.

이 태스크의 기능, 모델, 구성 옵션에 대한 자세한 내용은 개요를 참조하세요.

코드 예시

텍스트 임베딩의 예시 코드는 참조용으로 Python에서 이 작업을 완전히 구현합니다. 이 코드를 사용하면 이 작업을 테스트하고 자체 텍스트 삽입 빌드를 시작하는 데 도움이 됩니다. Google Colab에서 웹브라우저를 사용하여 텍스트 삽입기 예제 코드를 보고, 실행하고, 수정할 수 있습니다. 이 예의 소스 코드는 GitHub에서 볼 수 있습니다.

설정

이 섹션에서는 특히 Text Embedder를 사용하도록 개발 환경과 코드 프로젝트를 설정하는 주요 단계를 설명합니다. 플랫폼 버전 요구사항을 포함하여 MediaPipe 작업을 사용하기 위한 개발 환경 설정에 관한 일반적인 정보는 Python 설정 가이드를 참고하세요.

패키지

Text Embedder는 mediapipe pip 패키지를 사용합니다. 다음을 사용하여 종속 항목을 설치할 수 있습니다.

$ python -m pip install mediapipe

가져오기

Text Embedder 작업 함수에 액세스하려면 다음 클래스를 가져오세요.

import mediapipe as mp
from mediapipe.tasks import python
from mediapipe.tasks.python import text

모델

MediaPipe 텍스트 임베딩 작업에는 이 작업과 호환되는 학습된 모델이 필요합니다. 텍스트 임베딩에 사용할 수 있는 학습된 모델에 대한 자세한 내용은 작업 개요 모델 섹션을 참조하세요.

모델을 선택하여 다운로드한 다음 로컬 디렉터리에 저장합니다. 권장되는 UniversalSentenceEncoder 모델을 사용할 수 있습니다.

model_path = '/absolute/path/to/universal_sentence_encoder.tflite'

아래와 같이 model_asset_path 매개변수 내에 모델 경로를 지정합니다.

base_options = BaseOptions(model_asset_path=model_path)

할 일 만들기

MediaPipe 텍스트 임베딩 작업은 create_from_options 함수를 사용하여 작업을 설정합니다. create_from_options 함수는 구성 옵션 값을 허용하여 삽입기 옵션을 설정합니다. create_from_model_path 팩토리 함수를 사용하여 작업을 초기화할 수도 있습니다. create_from_model_path 함수는 학습된 모델 파일의 상대 또는 절대 경로를 허용합니다. 구성 옵션에 대한 자세한 내용은 구성 옵션을 참조하세요.

다음 코드는 이 작업을 빌드하고 구성하는 방법을 보여줍니다.

import mediapipe as mp

BaseOptions = mp.tasks.BaseOptions
TextEmbedder = mp.tasks.text.TextEmbedder
TextEmbedderOptions = mp.tasks.text.TextEmbedderOptions

# For creating a text embedder instance:
options = TextEmbedderOptions(
    base_options=BaseOptions(model_asset_path=model_path),
    quantize=True)
text_embedder = TextEmbedder.create_from_options(options)

구성 옵션

이 태스크에는 다음과 같은 Python 애플리케이션 구성 옵션이 있습니다.

옵션 이름 설명 값 범위 기본값
l2_normalize 반환된 특성 벡터를 L2 norm으로 정규화할지 여부입니다. 모델에 아직 네이티브 L2_NORMALIZATION TFLite 오퍼레이션이 포함되지 않은 경우에만 이 옵션을 사용하세요. 대부분의 경우 이미 이러한 경우가 많으며 L2 정규화는 이 옵션 없이도 TFLite 추론을 통해 달성됩니다. Boolean False
quantize 반환된 임베딩을 스칼라 양자화를 통해 바이트로 양자화해야 하는지 여부입니다. 임베딩은 암시적으로 단위 표준으로 간주되므로 모든 차원은 [-1.0, 1.0]의 값을 가집니다. 그렇지 않으면 l2_normalize 옵션을 사용하세요. Boolean False

데이터 준비

텍스트 삽입기는 텍스트 (str) 데이터와 함께 작동합니다. 이 태스크는 토큰화와 텐서 전처리를 포함하여 데이터 입력 사전 처리를 처리합니다.

모든 전처리는 embed 함수 내에서 처리됩니다. 사전에 입력 텍스트를 추가로 사전 처리할 필요는 없습니다.

input_text = "The input text to be embedded."

작업 실행

텍스트 임베딩은 embed 함수를 사용하여 추론을 트리거합니다. 텍스트 임베딩의 경우, 이는 입력 텍스트의 임베딩 벡터가 반환되는 것을 의미합니다.

다음 코드는 작업 모델을 사용하여 처리를 실행하는 방법을 보여줍니다.

# Perform text embedding on the provided input text.
embedding_result = text_embedder.embed(input_text)

결과 처리 및 표시

텍스트 임베딩은 입력 텍스트의 임베딩 목록 (부동 소수점 또는 스칼라 양자화)이 포함된 TextEmbedderResult를 출력합니다.

다음은 이 작업의 출력 데이터 예를 보여줍니다.

TextEmbedderResult:
  Embedding #0 (sole embedding head):
    float_embedding: {0.2345f, 0.1234f, ..., 0.6789f}
    head_index: 0

TextEmbedder.cosine_similarity 함수를 사용하여 두 임베딩의 시맨틱 유사성을 비교할 수 있습니다. 다음 코드의 예를 참고하세요.

# Compute cosine similarity.
similarity = TextEmbedder.cosine_similarity(
  embedding_result.embeddings[0],
  other_embedding_result.embeddings[0])