LLM 추론 가이드

LLM Inference API를 사용하면 대규모 언어 모델 (LLM)을 기기 내에서만 실행할 수 있으며 이를 통해 텍스트 생성, 자연어 형식으로 정보 검색, 문서 요약과 같은 다양한 작업을 수행할 수 있습니다. 이 작업은 여러 텍스트 간 대규모 언어 모델에 대한 기본 지원을 제공하므로 앱과 제품에 최신 온디바이스 생성형 AI 모델을 적용할 수 있습니다.

사용해 보기

이 작업은 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술로 빌드된 경량형 최첨단 개방형 모델 제품군의 일부인 Gemma 2B 및 7B를 지원합니다. 또한 Phi-2, Falcon-RW-1B, StableLM-3B와 같은 외부 모델도 지원합니다.

기본적으로 지원되는 모델 외에도 사용자는 Google의 AI Edge 제품 (PyTorch 모델 매핑 포함)을 사용하여 다른 모델을 매핑할 수 있습니다. 이를 통해 사용자는 매핑된 모델을 tokenizer 매개변수와 함께 번들로 묶어 태스크 번들을 만드는 다중 서명 TensorFlow Lite 모델로 내보낼 수 있습니다.

시작하기

이 작업의 사용을 시작하려면 대상 플랫폼별 구현 가이드 중 하나를 따르세요. 이러한 플랫폼별 가이드에서는 사용 가능한 모델을 사용하는 코드 예와 권장 구성 옵션을 통해 이 작업의 기본 구현을 안내합니다.

태스크 세부정보

이 섹션에서는 이 태스크의 기능, 입력, 출력 및 구성 옵션을 설명합니다.

기능

LLM Inference API에는 다음과 같은 주요 기능이 포함되어 있습니다.

  1. 텍스트 간 생성 - 입력 텍스트 프롬프트를 기반으로 텍스트를 생성합니다.
  2. LLM 선택 - 여러 모델을 적용하여 특정 사용 사례에 맞게 앱을 조정합니다. 또한 맞춤설정된 가중치를 다시 학습시키고 모델에 적용할 수도 있습니다.
  3. LoRA 지원 - 모든 데이터 세트에서 학습하거나 오픈소스 커뮤니티에서 사전 빌드된 LoRA 모델을 가져와 LoRA 모델로 LLM 기능을 확장하고 맞춤설정할 수 있습니다 (네이티브 모델만 해당).
작업 입력 작업 출력
LLM Inference API는 다음 입력을 허용합니다.
  • 텍스트 프롬프트 (예: 질문, 이메일 제목, 요약할 문서)
LLM Inference API는 다음 결과를 출력합니다.
  • 입력 프롬프트 (예: 질문에 대한 답변, 이메일 초안, 문서 요약)를 기반으로 생성된 텍스트

구성 옵션

이 태스크에는 다음과 같은 구성 옵션이 있습니다.

옵션 이름 설명 값 범위 기본값
modelPath 프로젝트 디렉터리 내에서 모델이 저장되는 경로입니다. PATH 해당 사항 없음
maxTokens 모델이 처리하는 토큰의 최대 개수 (입력 토큰 + 출력 토큰)입니다. 정수 512
topK 모델이 각 생성 단계에서 고려하는 토큰 수입니다. 확률이 가장 높은 토큰 k개로 예측을 제한합니다. topK를 설정할 때는 randomSeed의 값도 설정해야 합니다. 정수 40
temperature 생성 중에 도입된 무작위성의 정도입니다. 온도가 높을수록 생성된 텍스트의 창의성이 높아지고, 온도가 낮을수록 예측 가능한 생성이 이루어집니다. temperature를 설정할 때는 randomSeed의 값도 설정해야 합니다. 부동 소수점 수 0.8
randomSeed 텍스트 생성 중에 사용되는 무작위 시드입니다. 정수 0
loraPath 기기에서 로컬로 LoRA 모델의 절대 경로입니다. 참고: GPU 모델과만 호환됩니다. PATH 해당 사항 없음
resultListener 결과를 비동기식으로 수신하도록 결과 리스너를 설정합니다. 비동기 생성 메서드를 사용하는 경우에만 적용됩니다. 해당 사항 없음 해당 사항 없음
errorListener 선택적 오류 리스너를 설정합니다. 해당 사항 없음 해당 사항 없음

모델

LLM Inference API에는 브라우저 및 휴대기기에서 실행되도록 최적화된, 분리 가능한 텍스트-텍스트 간 대규모 언어 모델을 위한 지원 기능이 내장되어 있습니다. 이러한 경량 모델을 다운로드하여 온디바이스 내에서 추론을 실행할 수 있습니다.

LLM Inference API를 초기화하기 전에 지원되는 모델 중 하나를 다운로드하고 프로젝트 디렉터리에 파일을 저장하세요.

Gemma 2B

Gemma 2BGemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술로 빌드된 경량 최첨단 개방형 모델 제품군의 일부입니다. 모델에는 20억 개의 매개변수와 개방형 가중치가 포함됩니다. 이 모델은 질의 응답, 요약, 추론을 비롯한 다양한 텍스트 생성 태스크에 적합합니다.

Gemma 2B 다운로드

Gemma 2B 모델에는 4가지 변형이 있습니다.

앱에 추가하기 전에 모델을 조정하고 새 가중치를 추가할 수도 있습니다. Gemma 조정 및 맞춤설정에 관한 자세한 내용은 Gemma 미세 조정을 참고하세요. Kaggle 모델에서 Gemma를 다운로드하면 모델이 이미 MediaPipe에서 사용하기에 적절한 형식으로 되어 있습니다.

Hemma 2B를 Hugging Face에서 다운로드하는 경우 MediaPipe에 적합한 형식으로 모델을 변환해야 합니다. LLM Inference API를 사용하려면 다음 파일을 다운로드하고 변환해야 합니다.

  • model-00001-of-00002.safetensors
  • model-00002-of-00002.safetensors
  • tokenizer.json
  • tokenizer_config.json

Gemma 7B

Gemma 7B는 70개의 매개변수와 개방형 가중치를 사용하는 더 큰 Gemma 모델입니다. 이 모델은 질의 응답, 요약, 추론을 비롯한 다양한 텍스트 생성 태스크에서 더 강력합니다. Gemma 7B는 웹에서만 지원됩니다.

Gemma 7B 다운로드

Gemma 7B 모델은 한 가지 옵션으로 제공됩니다.

Hemma 7B를 Hugging Face에서 다운로드하는 경우 MediaPipe에 적합한 형식으로 모델을 변환해야 합니다. LLM Inference API를 사용하려면 다음 파일을 다운로드하고 변환해야 합니다.

  • model-00001-of-00004.safetensors
  • model-00002-of-00004.safetensors
  • model-00003-of-00004.safetensors
  • model-00004-of-00004.safetensors
  • tokenizer.json
  • tokenizer_config.json

Falcon 1B

Falcon-1B는 RefinedWeb의 3,50B 토큰으로 학습된 10억 개의 매개변수 인과적 디코더 전용 모델입니다.

Falcon 1B 다운로드

LLM Inference API를 사용하려면 다음 파일을 다운로드하여 로컬로 저장해야 합니다.

  • tokenizer.json
  • tokenizer_config.json
  • pytorch_model.bin

Falcon 모델 파일을 다운로드하면 모델을 MediaPipe 형식으로 변환할 준비가 된 것입니다. 모델을 MediaPipe 형식으로 변환의 단계를 따릅니다.

StableLM 3B

StableLM-3B는 4세대 동안 다양한 영어 및 코드 데이터 세트의 1조 토큰으로 사전 학습된 30억 매개변수 디코더 전용 언어 모델입니다.

StableLM 3B 다운로드

LLM Inference API를 사용하려면 다음 파일을 다운로드하여 로컬로 저장해야 합니다.

  • tokenizer.json
  • tokenizer_config.json
  • model.safetensors

StableLM 모델 파일을 다운로드하면 모델을 MediaPipe 형식으로 변환할 준비가 된 것입니다. 모델을 MediaPipe 형식으로 변환의 단계를 따릅니다.

Phi-2

Phi-2는 27억 개의 매개변수 Transformer 모델입니다. 다양한 NLP 합성 텍스트와 필터링된 웹사이트를 사용하여 학습되었습니다. 이 모델은 질문-답변, 채팅, 코드 형식을 사용하는 프롬프트에 가장 적합합니다

Phi-2 다운로드

LLM Inference API를 사용하려면 다음 파일을 다운로드하여 로컬로 저장해야 합니다.

  • tokenizer.json
  • tokenizer_config.json
  • model-00001-of-00002.safetensors
  • model-00002-of-00002.safetensors

Phi-2 모델 파일을 다운로드하면 모델을 MediaPipe 형식으로 변환할 준비가 된 것입니다. 모델을 MediaPipe 형식으로 변환의 단계를 따릅니다.

AI Edge에서 내보낸 모델

AI Edge는 사용자 매핑 모델을 다중 서명 TensorFlow Lite 모델로 변환할 수 있는 Google 제품입니다. 모델 매핑 및 내보내기에 대한 자세한 내용은 AI Edge Torch GitHub 페이지를 참조하세요.

모델을 TFLite 형식으로 내보낸 후에는 모델을 MediaPipe 형식으로 변환할 수 있습니다. 자세한 내용은 모델을 MediaPipe 형식으로 변환을 참조하세요.

모델을 MediaPipe 형식으로 변환

네이티브 모델 변환

외부 LLM (Phi-2, Falcon 또는 StableLM) 또는 Kaggle 외 Gemma 버전을 사용하는 경우 변환 스크립트를 사용하여 모델을 MediaPipe와 호환되도록 형식을 지정하세요.

모델 변환 프로세스에는 MediaPipe PyPI 패키지가 필요합니다. 변환 스크립트는 0.10.11 이후의 모든 MediaPipe 패키지에서 사용할 수 있습니다.

다음을 사용하여 종속 항목을 설치하고 가져옵니다.

$ python3 -m pip install mediapipe

genai.converter 라이브러리를 사용하여 모델을 변환합니다.

import mediapipe as mp
from mediapipe.tasks.python.genai import converter

config = converter.ConversionConfig(
  input_ckpt=INPUT_CKPT,
  ckpt_format=CKPT_FORMAT,
  model_type=MODEL_TYPE,
  backend=BACKEND,
  output_dir=OUTPUT_DIR,
  combine_file_only=False,
  vocab_model_file=VOCAB_MODEL_FILE,
  output_tflite_file=OUTPUT_TFLITE_FILE,
)

converter.convert_checkpoint(config)

LoRA 모델을 변환하려면 ConversionConfig에서 기본 모델 옵션과 추가 LoRA 옵션을 지정해야 합니다. API는 GPU를 사용한 LoRA 추론만 지원하므로 백엔드를 'gpu'로 설정해야 합니다.

import mediapipe as mp
from mediapipe.tasks.python.genai import converter

config = converter.ConversionConfig(
  # Other params related to base model
  ...
  # Must use gpu backend for LoRA conversion
  backend='gpu',
  # LoRA related params
  lora_ckpt=LORA_CKPT,
  lora_rank=LORA_RANK,
  lora_output_tflite_file=LORA_OUTPUT_TFLITE_FILE,
)

converter.convert_checkpoint(config)

변환기는 두 개의 TFLite 플랫버퍼 파일(기본 모델용, 다른 하나는 LoRA 모델용)을 출력합니다.

매개변수 설명 허용되는 값
input_ckpt model.safetensors 또는 pytorch.bin 파일의 경로입니다. 모델 안전 텐서 형식이 여러 파일(예: model-00001-of-00003.safetensors, model-00001-of-00003.safetensors)로 샤딩되는 경우가 있습니다. model*.safetensors와 같은 파일 패턴을 지정할 수 있습니다. PATH
ckpt_format 모델 파일 형식입니다. {"safetensors", "pytorch"}
model_type 변환 중인 LLM입니다. {'PHI_2', 'FALCON_RW_1B', 'STABLELM_4E1T_3B', 'GEMMA_2B'}
backend 모델을 실행하는 데 사용되는 프로세서 (대리자)입니다. {"cpu", "gpu"}
output_dir 레이어당 가중치 파일을 호스팅하는 출력 디렉터리의 경로입니다. PATH
output_tflite_file 출력 파일의 경로입니다. 예: 'model_cpu.bin' 또는 'model_gpu.bin' 이 파일은 LLM Inference API와만 호환되며 일반 `tflite` 파일로 사용할 수 없습니다. PATH
vocab_model_file tokenizer.jsontokenizer_config.json 파일이 저장되는 디렉터리 경로입니다. Gemma의 경우 단일 tokenizer.model 파일을 가리킵니다. PATH
lora_ckpt LoRA 어댑터 가중치를 저장하는 Safetensors 파일의 LoRA ckpt 경로입니다. PATH
lora_rank LoRA ckpt의 순위를 나타내는 정수입니다. lora 가중치를 변환하는 데 필요합니다. 이 값이 제공되지 않으면 변환기는 LoRA 가중치가 없다고 가정합니다. 참고: GPU 백엔드만 LoRA를 지원합니다. 정수
lora_output_tflite_file LoRA 가중치의 출력 tflite 파일 이름입니다. PATH

AI Edge 모델 변환

AI Edge를 통해 TFLite 모델에 매핑된 LLM을 사용하는 경우 번들 스크립트를 사용하여 작업 번들을 만드세요. 번들링 프로세스는 매핑된 모델을 추가 메타데이터 (예: Tokenizer 매개변수)가 포함됩니다.

모델 번들링 프로세스에는 MediaPipe PyPI 패키지가 필요합니다. 변환 스크립트는 0.10.14 이후의 모든 MediaPipe 패키지에서 사용할 수 있습니다.

다음을 사용하여 종속 항목을 설치하고 가져옵니다.

$ python3 -m pip install mediapipe

genai.bundler 라이브러리를 사용하여 모델을 번들로 묶습니다.

import mediapipe as mp
from mediapipe.tasks.python.genai import bundler

config = bundler.BundleConfig(
    tflite_model=TFLITE_MODEL,
    tokenizer_model=TOKENIZER_MODEL,
    start_token=START_TOKEN,
    stop_tokens=STOP_TOKENS,
    output_filename=OUTPUT_FILENAME,
    enable_bytes_to_unicode_mapping=ENABLE_BYTES_TO_UNICODE_MAPPING,
)
bundler.create_bundle(config)
매개변수 설명 허용되는 값
tflite_model AI Edge에서 내보낸 TFLite 모델의 경로입니다. PATH
tokenizer_model SentencePiece tokenizer 모델의 경로입니다. PATH
start_token 모델별 시작 토큰입니다. 제공된 tokenizer 모델에 시작 토큰이 있어야 합니다. 문자열
stop_tokens 모델별 중지 토큰 제공된 tokenizer 모델에 중지 토큰이 있어야 합니다. 목록[STRING]
output_filename 출력 작업 번들 파일의 이름입니다. PATH

LoRA 맞춤설정

대규모 언어 모델에 대해 LoRA (Low-Rank Adaptation)를 지원하도록 Mediapipe LLM 추론 API를 구성할 수 있습니다. 미세 조정된 LoRA 모델을 활용하면 개발자가 비용 효율적인 학습 프로세스를 통해 LLM의 동작을 맞춤설정할 수 있습니다.

LLM Inference API의 LoRA 지원은 GPU 백엔드의 Gemma-2B 및 Phi-2 모델에서 작동하며 LoRA 가중치는 어텐션 레이어에만 적용됩니다. 이 초기 구현은 향후 개발을 위한 실험용 API 역할을 하며 향후 업데이트에서 더 많은 모델과 다양한 유형의 레이어를 지원할 계획입니다.

LoRA 모델 준비

HugggingFace의 안내에 따라 지원되는 모델 유형(Gemma-2B 또는 Phi-2)을 사용하여 자체 데이터 세트에서 미세 조정된 LoRA 모델을 학습시킵니다. Gemma-2B 및 Phi-2 모델은 모두 HuggingFace에서 safetensors 형식으로 제공됩니다. LLM Inference API는 어텐션 레이어에서만 LoRA를 지원하므로 다음과 같이 LoraConfig를 만드는 동안 어텐션 레이어만 지정합니다.

# For Gemma-2B
from peft import LoraConfig
config = LoraConfig(
    r=LORA_RANK,
    target_modules=["q_proj", "v_proj", "k_proj", "o_proj"],
)

# For Phi-2
config = LoraConfig(
    r=LORA_RANK,
    target_modules=["q_proj", "v_proj", "k_proj", "dense"],
)

테스트를 위해 HuggingFace에서 사용할 수 있는 LLM 추론 API에 맞게 미세 조정된 LoRA 모델을 공개적으로 액세스할 수 있습니다. 예를 들어 Gemma-2B의 경우 monsterapi/gemma-2b-lora-maths-orca-200k이고 Phi-2의 경우 lole25/phi-2-sft-ultrachat-lora입니다.

준비된 데이터 세트를 학습하고 모델을 저장한 후에는 미세 조정된 LoRA 모델 가중치가 포함된 adapter_model.safetensors 파일을 얻게 됩니다. safetensors 파일은 모델 변환에 사용되는 LoRA 체크포인트입니다.

다음 단계로 MediaPipe Python 패키지를 사용하여 모델 가중치를 TensorFlow Lite Flatbuffer로 변환해야 합니다. ConversionConfig는 기본 모델 옵션과 추가 LoRA 옵션을 지정해야 합니다. API는 GPU를 사용한 LoRA 추론만 지원하므로 백엔드를 'gpu'로 설정해야 합니다.

import mediapipe as mp
from mediapipe.tasks.python.genai import converter

config = converter.ConversionConfig(
  # Other params related to base model
  ...
  # Must use gpu backend for LoRA conversion
  backend='gpu',
  # LoRA related params
  lora_ckpt=LORA_CKPT,
  lora_rank=LORA_RANK,
  lora_output_tflite_file=LORA_OUTPUT_TFLITE_FILE,
)

converter.convert_checkpoint(config)

변환기는 두 개의 TFLite 플랫버퍼 파일(기본 모델용, 다른 하나는 LoRA 모델용)을 출력합니다.

LoRA 모델 추론

LoRA 모델 추론을 지원하도록 웹, Android, iOS LLM Inference API가 업데이트되었습니다. 웹은 런타임 중에 다양한 LoRA 모델을 전환할 수 있는 동적 LoRA를 지원합니다. Android 및 iOS는 정적 LoRA를 지원합니다. 정적 LoRA는 작업 수명 동안 동일한 LoRA 가중치를 사용합니다.

Android는 초기화 중에 정적 LoRA를 지원합니다. LoRA 모델을 로드하려면 LoRA 모델 경로와 기본 LLM을 지정해야 합니다.

// Set the configuration options for the LLM Inference task
val options = LlmInferenceOptions.builder()
        .setModelPath('<path to base model>')
        .setMaxTokens(1000)
        .setTopK(40)
        .setTemperature(0.8)
        .setRandomSeed(101)
        .setLoraPath('<path to LoRA model>')
        .build()

// Create an instance of the LLM Inference task
llmInference = LlmInference.createFromOptions(context, options)

LoRA로 LLM 추론을 실행하려면 기본 모델과 동일한 generateResponse() 또는 generateResponseAsync() 메서드를 사용합니다.