LLM Inference API를 사용하면 대규모 언어 모델 (LLM)을 완전히 실행할 수 있습니다. 컴퓨팅, 스토리지, 기기, 애플리케이션, 데스크톱 등 광범위한 작업을 수행하는 데 텍스트 생성, 자연어 형식으로 정보 검색 문서 요약 이 작업은 여러 대규모 언어 모델을 지원하므로 기기 내 최신 기능을 적용할 수 있습니다. 앱과 제품에 통합하는 방법을 알아봅니다
<ph type="x-smartling-placeholder"></ph> 직접 해 보세요.
이 작업은 Gemma 2B 및 7B( 동일한 애플리케이션을 기반으로 빌드된 최첨단 경량 개방형 모델 제품군입니다. Gemini를 구축하는 데 사용된 연구와 기술 모델을 학습시키는 작업도 반복해야 합니다 또한 다음과 같은 외부 모델도 지원합니다. Phi-2 Falcon-RW-1B 및 StableLM-3B입니다.
기본적으로 지원되는 모델 외에도 사용자는 Google의 AI Edge를 사용한 모델 서비스( PyTorch 모델 매핑 참조) 이를 통해 사용자는 매핑된 모델을 다중 서명으로 내보낼 수 있습니다. TensorFlow Lite 모델은 이를 위해 tokenizer 매개변수와 함께 번들로 제공됩니다. Task Bundle을 만듭니다.
시작하기
다음 구현 가이드 중 하나를 따라 이 작업을 사용해 보세요. 확인할 수 있습니다 이 플랫폼별 가이드에서는 기본적인 코드 예제와 함께 이 작업을 구현할 수 있습니다. 권장 구성 옵션:
태스크 세부정보
이 섹션에서는 기능, 입력, 출력, 구성을 설명합니다. 이 태스크의 옵션 중 하나입니다.
기능
LLM Inference API에는 다음과 같은 주요 기능이 포함되어 있습니다.
- 텍스트 간 생성 - 입력 텍스트 프롬프트를 기반으로 텍스트를 생성합니다.
- LLM 선택 - 여러 모델을 적용하여 구체적인 사용 사례를 알아보겠습니다 또한 다시 학습시키고 맞춤설정된 가중치를 있습니다.
- LoRA 지원 - LoRA 모델을 사용한 LLM 기능 확장 및 맞춤설정 모든 데이터 세트로 학습하거나 사전 빌드된 LoRA는 모델을 다시 빌드해야 합니다 (네이티브 모델만 해당).
작업 입력 | 작업 출력 |
---|---|
LLM Inference API는 다음 입력을 허용합니다. <ph type="x-smartling-placeholder">
|
LLM Inference API는 다음과 같은 결과를 출력합니다. <ph type="x-smartling-placeholder">
|
구성 옵션
이 작업에는 다음과 같은 구성 옵션이 있습니다.
옵션 이름 | 설명 | 값 범위 | 기본값 |
---|---|---|---|
modelPath |
프로젝트 디렉터리 내에서 모델이 저장된 경로입니다. | 경로 | 해당 사항 없음 |
maxTokens |
모델이 처리하는 최대 토큰 수 (입력 토큰 + 출력 토큰)입니다. | 정수 | 512 |
topK |
생성의 각 단계에서 모델이 고려하는 토큰 수입니다. 가능성이 가장 높은 상위 k개의 토큰으로 예측을 제한합니다. | 정수 | 40 |
temperature |
생성 중에 도입된 임의성의 양입니다. 더 높은 온도는 생성된 텍스트에서 더 창의성을 발휘하지만 온도가 낮으면 더 예측 가능한 생성이 생성됩니다. | 부동 소수점 수 | 0.8 |
randomSeed |
텍스트 생성 중에 사용되는 임의의 시드입니다. | 정수 | 0 |
loraPath |
기기에서 로컬로 LoRA 모델의 절대 경로입니다. 참고: GPU 모델과만 호환됩니다. | 경로 | 해당 사항 없음 |
resultListener |
결과를 비동기식으로 수신하도록 결과 리스너를 설정합니다. 비동기 생성 메서드를 사용하는 경우에만 적용됩니다. | 해당 사항 없음 | 해당 사항 없음 |
errorListener |
선택적 오류 리스너를 설정합니다. | 해당 사항 없음 | 해당 사항 없음 |
모델
LLM Inference API에는 분할 가능한 텍스트 간 변환 대규모 브라우저 및 휴대기기에서 실행하도록 최적화된 언어 모델을 지원합니다. 이러한 경량 모델을 다운로드하여 추론을 온전히 기기에서 실행할 수 있습니다.
LLM Inference API를 초기화하기 전에 지원되는 모델 중 하나를 다운로드하고 프로젝트 디렉터리에 파일을 저장합니다
Gemma 2B
Gemma 2B는 경량형 최첨단 개방형 모델을 Gemini 모델을 생성하는 데 사용된 기술입니다. 이 20억 개의 매개변수와 공개 가중치를 포함합니다. 이 모델은 질문 답변, 요약, 그리고 추론이 필요합니다.
<ph type="x-smartling-placeholder"></ph> Gemma 2B 다운로드 를 통해 개인정보처리방침을 정의할 수 있습니다.
Gemma 2B 모델은 4가지 변종으로 제공됩니다.
- gemma-2b-it-cpu-int4: CPU와 호환되는 Gemma 2B 4비트 모델입니다.
- gemma-2b-it-cpu-int8: CPU와 호환되는 Gemma 2B 8비트 모델입니다.
- gemma-2b-it-gpu-int4: GPU와 호환되는 Gemma 2B 4비트 모델입니다.
- gemma-2b-it-gpu-int8: GPU와 호환되는 Gemma 2B 8비트 모델입니다.
모델을 앱에 추가하기 전에 모델을 조정하고 새 가중치를 추가할 수도 있습니다. 대상 Gemma 조정 및 맞춤설정에 대한 자세한 내용은 Gemma 미세 조정을 참조하세요. Kaggle 모델에서 Gemma를 다운로드한 후 모델이 이미 MediaPipe에 사용하기에 적합한 형식입니다.
Hugging에서 Gemma 2B를 다운로드하는 경우 얼굴이 있는 경우, 변환해야 합니다. MediaPipe 친화적인 형식으로 변환할 수 있습니다. LLM Inference API 에서는 다음 파일을 다운로드하고 변환해야 합니다.
model-00001-of-00002.safetensors
model-00002-of-00002.safetensors
tokenizer.json
tokenizer_config.json
Gemma 7B
<ph type="x-smartling-placeholder">Gemma 7B는 7B를 갖는 더 큰 Gemma 모델입니다. 매개변수, 공개 가중치 등이 있습니다. 다양한 텍스트에 대해 더 강력함 질의 응답, 요약 및 추론을 포함한 생성 작업을 예로 들 수 있습니다. Gemma 7B는 웹에서만 지원됩니다.
<ph type="x-smartling-placeholder"></ph> Gemma 7B 다운로드 를 통해 개인정보처리방침을 정의할 수 있습니다.
Gemma 7B 모델은 한 가지 변종으로 제공됩니다.
- gemma-1.1-7b-it-gpu-int8: GPU와 호환되는 Gemma 7B 8비트 모델입니다.
Hugging Face에서 Gemma 7B를 다운로드하면 MediaPipe 친화적인 형식으로 모델을 변환해야 합니다. 이 LLM Inference API를 사용하려면 다음 파일을 다운로드하고 변환해야 합니다.
model-00001-of-00004.safetensors
model-00002-of-00004.safetensors
model-00003-of-00004.safetensors
model-00004-of-00004.safetensors
tokenizer.json
tokenizer_config.json
팔콘 1B
Falcon-1B는 350B를 기반으로 학습된 10억 개의 매개변수 인과 디코더 전용 모델 토큰: RefinedWeb을 참조하세요.
<ph type="x-smartling-placeholder"></ph> Falcon 1B 다운로드 를 통해 개인정보처리방침을 정의할 수 있습니다.
LLM Inference API를 사용하려면 다음 파일을 다운로드하고 저장해야 합니다. 로컬:
tokenizer.json
tokenizer_config.json
pytorch_model.bin
Falcon 모델 파일을 다운로드하면 모델을 MediaPipe 형식입니다. 모델을 MediaPipe로 변환하기의 단계를 따릅니다. 형식을 참고하세요.
안정화 버전LM 3B
StableLM-3B는 30억 개의 매개변수를 가진 디코더 전용 언어 모델이며, 4세대에 걸친 1조 개의 다양한 영어 및 코드 데이터 세트 토큰
<ph type="x-smartling-placeholder"></ph> StableLM 3B 다운로드 를 통해 개인정보처리방침을 정의할 수 있습니다.
LLM Inference API를 사용하려면 다음 파일을 다운로드하고 저장해야 합니다. 로컬:
tokenizer.json
tokenizer_config.json
model.safetensors
StableLM 모델 파일을 다운로드하면 모델을 변환할 준비가 된 것입니다. MediaPipe 형식으로 변환합니다. 모델을 MediaPipe로 변환하기의 단계를 따릅니다. 형식을 참고하세요.
Phi-2
Phi-2는 27억 개의 매개변수 Transformer 모델입니다. 이 모델은 다양한 NLP 합성 텍스트 및 필터링된 웹사이트 프롬프트에 가장 적합한 모델 질문-답변, 채팅, 코드 형식을 사용합니다.
<ph type="x-smartling-placeholder"></ph> 파이-2 다운로드 를 통해 개인정보처리방침을 정의할 수 있습니다.
LLM Inference API를 사용하려면 다음 파일을 다운로드하고 저장해야 합니다. 로컬:
tokenizer.json
tokenizer_config.json
model-00001-of-00002.safetensors
model-00002-of-00002.safetensors
Phi-2 모델 파일을 다운로드하면 모델을 MediaPipe 형식입니다. 모델을 MediaPipe로 변환하기의 단계를 따릅니다. 형식을 참고하세요.
AI Edge 내보내기 모델
AI Edge는 사용자 매핑 모델을 변환할 수 있는 Google 제품입니다. 다중 서명 TensorFlow Lite 모델로 통합하게 되었습니다. 매핑 및 매핑에 대한 자세한 내용은 모델 내보내기에 대한 자세한 내용은 AI Edge Torch를 참조하세요. GitHub 페이지
모델을 TFLite 형식으로 내보낸 후에는 모델을 MediaPipe 형식으로 변환됩니다. 자세한 내용은 다음을 참고하세요. 모델을 MediaPipe 형식으로 변환합니다.
모델을 MediaPipe 형식으로 변환
네이티브 모델 전환
외부 LLM (Phi-2, Falcon 또는 StableLM) 또는 Kaggle 이외의 도구를 사용하는 경우 변환 스크립트를 사용하여 모델을 MediaPipe와 호환됩니다.
모델 변환 프로세스에는 MediaPipe PyPI 패키지가 필요합니다. 전환
스크립트는 0.10.11
이후의 모든 MediaPipe 패키지에서 사용할 수 있습니다.
다음을 사용하여 종속 항목을 설치하고 가져옵니다.
$ python3 -m pip install mediapipe
genai.converter
라이브러리를 사용하여 모델을 변환합니다.
import mediapipe as mp
from mediapipe.tasks.python.genai import converter
config = converter.ConversionConfig(
input_ckpt=INPUT_CKPT,
ckpt_format=CKPT_FORMAT,
model_type=MODEL_TYPE,
backend=BACKEND,
output_dir=OUTPUT_DIR,
combine_file_only=False,
vocab_model_file=VOCAB_MODEL_FILE,
output_tflite_file=OUTPUT_TFLITE_FILE,
)
converter.convert_checkpoint(config)
LoRA 모델을 변환하려면 ConversionConfig
에서 기본 모델을 지정해야 합니다.
추가 LoRA 옵션도 제공합니다 이 API는
GPU에서 LoRA 추론을 지원하는 경우 백엔드는 'gpu'
로 설정해야 합니다.
import mediapipe as mp
from mediapipe.tasks.python.genai import converter
config = converter.ConversionConfig(
# Other params related to base model
...
# Must use gpu backend for LoRA conversion
backend='gpu',
# LoRA related params
lora_ckpt=LORA_CKPT,
lora_rank=LORA_RANK,
lora_output_tflite_file=LORA_OUTPUT_TFLITE_FILE,
)
converter.convert_checkpoint(config)
변환기는 기본 모델용 TFLite 플랫버퍼 파일 2개를 출력합니다. 다른 하나는 LoRA 모델에 사용합니다
매개변수 | 설명 | 허용되는 값 |
---|---|---|
input_ckpt |
model.safetensors 또는 pytorch.bin 파일의 경로입니다. 모델 안전 텐서 형식이 여러 파일로 샤딩되는 경우도 있습니다. 예를 들어 model-00001-of-00003.safetensors , model-00001-of-00003.safetensors model*.safetensors 와 같은 파일 패턴을 지정할 수 있습니다. |
경로 |
ckpt_format |
모델 파일 형식입니다. | {"safetensors", "pytorch"} |
model_type |
변환되는 LLM입니다. | {"PHI_2", "FALCON_RW_1B", "STABLELM_4E1T_3B", "GEMMA_2B"} |
backend |
모델을 실행하는 데 사용된 프로세서 (위임)입니다. | {"cpu", "gpu"} |
output_dir |
레이어별 가중치 파일을 호스팅하는 출력 디렉터리의 경로입니다. | 경로 |
output_tflite_file |
출력 파일의 경로입니다. 예: 'model_cpu.bin' 또는 'model_gpu.bin'으로 지정할 수 있습니다. 이 파일은 LLM Inference API와만 호환되며 일반 `tflite` 파일로 사용할 수 없습니다. | 경로 |
vocab_model_file |
tokenizer.json 및
파일 tokenizer_config.json 개. Gemma의 경우 단일 tokenizer.model 파일을 가리킵니다. |
경로 |
lora_ckpt |
LoRA 어댑터 가중치를 저장하는 Safetensors 파일의 LoRA ckpt의 경로입니다. | 경로 |
lora_rank |
LoRA ckpt의 순위를 나타내는 정수입니다. Loa 가중치를 변환하는 데 필요합니다. 제공되지 않으면 변환기는 LoRA 가중치가 없다고 가정합니다. 참고: GPU 백엔드만 LoRA를 지원합니다. | 정수 |
lora_output_tflite_file |
LoRA 가중치의 tflite 파일 이름을 출력합니다. | 경로 |
AI Edge 모델 변환
AI Edge를 통해 TFLite 모델에 매핑된 LLM을 사용하는 경우 스크립트를 번들로 묶어 작업 번들을 생성하는 방법 번들 프로세스는 추가 메타데이터 (예: Tokenizer 매개변수)이 필요합니다. 엔드 투 엔드 추론을 실행할 수 있습니다
모델 번들 프로세스에는 MediaPipe PyPI 패키지가 필요합니다. 전환
스크립트는 0.10.14
이후의 모든 MediaPipe 패키지에서 사용할 수 있습니다.
다음을 사용하여 종속 항목을 설치하고 가져옵니다.
$ python3 -m pip install mediapipe
genai.bundler
라이브러리를 사용하여 모델을 번들로 묶습니다.
import mediapipe as mp
from mediapipe.tasks.python.genai import bundler
config = bundler.BundleConfig(
tflite_model=TFLITE_MODEL,
tokenizer_model=TOKENIZER_MODEL,
start_token=START_TOKEN,
stop_tokens=STOP_TOKENS,
output_filename=OUTPUT_FILENAME,
enable_bytes_to_unicode_mapping=ENABLE_BYTES_TO_UNICODE_MAPPING,
)
bundler.create_bundle(config)
매개변수 | 설명 | 허용되는 값 |
---|---|---|
tflite_model |
AI Edge에서 내보낸 TFLite 모델의 경로입니다. | 경로 |
tokenizer_model |
SentencePiece tokenizer 모델의 경로입니다. | 경로 |
start_token |
모델별 시작 토큰입니다. 시작 토큰은 tokenizer 모델을 제공합니다. | STRING |
stop_tokens |
특정 중지 토큰을 모델링합니다. 중지 토큰은 tokenizer 모델을 제공합니다. | 목록[문자열] |
output_filename |
출력 작업 번들 파일의 이름입니다. | 경로 |
LoRA 맞춤설정
LoRA (Low-Rank Adaptation)를 지원하도록 Mediapipe LLM 추론 API 구성 가능 살펴봤습니다 개발자는 미세 조정된 LoRA 모델을 활용하여 비용 효율적인 학습 프로세스를 통해 LLM의 동작을 맞춤설정할 수 있습니다.LLM Inference API에 대한 LoRA 지원은 Gemma-2B 및 Phi-2 모델에서 작동합니다. 어텐션 레이어에만 적용되는 LoRA 가중치를 사용하는 GPU 백엔드가 있습니다. 이 초기 구현은 향후 개발을 위한 실험용 API 역할을 합니다. 향후 더 많은 모델과 다양한 유형의 레이어를 지원할 계획입니다. 업데이트.
LoRA 모델 준비
HuggingFace에 관한 안내에 따라 지원되는 모델 유형(Gemma-2B 또는 Phi-2)으로 자체 데이터 세트에서 미세 조정된 LoRA 모델을 학습시킵니다. Gemma-2B 및 Phi-2 모델은 모두 HuggingFace에서 Safetensors 형식으로 제공됩니다. LLM Inference API는 어텐션 레이어에서 LoRA만 지원하므로 다음과 같이 LoraConfig
를 만들 때 어텐션 레이어만 지정합니다.
# For Gemma-2B
from peft import LoraConfig
config = LoraConfig(
r=LORA_RANK,
target_modules=["q_proj", "v_proj", "k_proj", "o_proj"],
)
# For Phi-2
config = LoraConfig(
r=LORA_RANK,
target_modules=["q_proj", "v_proj", "k_proj", "dense"],
)
테스트를 위해 HuggingFace에서 사용할 수 있는 LLM Inference API에 맞게 공개적으로 액세스 가능한 미세 조정된 LoRA 모델을 사용할 수 있습니다. 예를 들어 Gemma-2B의 경우 monsterapi/gemma-2b-lora-maths-orca-200k, Phi-2의 경우 lole25/phi-2-sft-ultrachat-lora입니다.
준비된 데이터 세트로 학습하고 모델을 저장하면 미세 조정된 LoRA 모델 가중치가 포함된 adapter_model.safetensors
파일을 얻습니다. 안전 텐서 파일은 모델 변환에 사용되는 LoRA 체크포인트입니다.
다음 단계에서는 MediaPipe Python 패키지를 사용하여 모델 가중치를 TensorFlow Lite Flatbuffer로 변환해야 합니다. ConversionConfig
는 기본 모델 옵션과 추가 LoRA 옵션을 지정해야 합니다. API는 GPU를 사용한 LoRA 추론만 지원하므로 백엔드를 'gpu'
로 설정해야 합니다.
import mediapipe as mp
from mediapipe.tasks.python.genai import converter
config = converter.ConversionConfig(
# Other params related to base model
...
# Must use gpu backend for LoRA conversion
backend='gpu',
# LoRA related params
lora_ckpt=LORA_CKPT,
lora_rank=LORA_RANK,
lora_output_tflite_file=LORA_OUTPUT_TFLITE_FILE,
)
converter.convert_checkpoint(config)
변환기는 기본 모델용 TFLite 플랫버퍼 파일 2개를 출력합니다. 다른 하나는 LoRA 모델에 사용합니다
LoRA 모델 추론
웹, Android, iOS LLM Inference API가 LoRA 모델 추론을 지원하도록 업데이트되었습니다. 웹은 런타임 중에 다른 LoRA 모델을 전환할 수 있는 동적 LoRA를 지원합니다. Android 및 iOS는 작업 전체 기간 동안 동일한 LoRA 가중치를 사용하는 정적 LoRA를 지원합니다.
Android는 초기화 중에 정적 LoRA를 지원합니다. LoRA 모델을 로드하려면 사용자는 LoRA 모델 경로와 기본 LLM을 지정해야 합니다.// Set the configuration options for the LLM Inference task
val options = LlmInferenceOptions.builder()
.setModelPath('<path to base model>')
.setMaxTokens(1000)
.setTopK(40)
.setTemperature(0.8)
.setRandomSeed(101)
.setLoraPath('<path to LoRA model>')
.build()
// Create an instance of the LLM Inference task
llmInference = LlmInference.createFromOptions(context, options)
LoRA로 LLM 추론을 실행하려면 기본 모델과 동일한 generateResponse()
또는 generateResponseAsync()
메서드를 사용합니다.