Android용 LLM 추론 가이드

<ph type="x-smartling-placeholder">를 통해 개인정보처리방침을 정의할 수 있습니다.

LLM Inference API를 사용하면 기기 내에서만 대규모 언어 모델 (LLM)을 실행할 수 있습니다. Android 애플리케이션에서 사용할 수 있으며, 텍스트 생성, 자연어 형식으로 정보 검색, 문서 요약 이 작업은 여러 대규모 언어 모델을 지원하므로 기기 내 최신 기능을 적용할 수 있습니다. Android 앱에 통합할 수 있습니다.

이 작업은 Gemma를 2B는 경량형 최첨단 개방형 모델 제품군인 Gemini 모델을 구축하는 데 사용된 기술과 기술을 살펴봤습니다. 또한 다음과 같은 외부 모델도 지원합니다. Phi-2 Falcon-RW-1BStableLM-3B AI Edge를 통해 내보낸 모든 모델과 함께 데이터를 로드할 수 있습니다

기능, 모델, 구성 옵션에 대한 자세한 내용은 개요를 참조하세요.

코드 예

이 가이드에서는 Android용 기본 텍스트 생성 앱의 예를 참조합니다. 나 앱을 자체 Android 앱의 시작점으로 사용하거나 참고할 수 있습니다 기존 앱을 수정할 때 예시 코드는 GitHub

코드 다운로드

다음 안내에서는 예시의 로컬 사본을 만드는 방법을 보여줍니다. git 명령줄 도구를 사용하여 코드를 실행합니다.

예시 코드를 다운로드하려면 다음 안내를 따르세요.

  1. 다음 명령어를 사용하여 git 저장소를 클론합니다.
    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. 원하는 경우 스파스 체크아웃을 사용하도록 git 인스턴스를 구성하여 다음과 같이 합니다. LLM Inference API 예시 앱의 파일만 해당합니다.
    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/llm_inference/android
    

예시 코드의 로컬 버전을 만든 후 프로젝트를 가져올 수 있습니다. Android 스튜디오로 이동하여 앱을 실행합니다. 자세한 내용은 Android

설정

이 섹션에서는 개발 환경을 설정하는 주요 단계를 설명하고 특히 LLM Inference API를 사용할 수 있습니다. 일반적인 정보 다음과 같은 MediaPipe 작업을 사용하기 위한 개발 환경 설정 플랫폼 버전 요구사항에 대한 자세한 내용은 Android

종속 항목

LLM Inference API는 com.google.mediapipe:tasks-genai 라이브러리를 사용합니다. 추가 Android 앱의 build.gradle 파일에 종속 항목을 추가해야 합니다.

dependencies {
    implementation 'com.google.mediapipe:tasks-genai:0.10.14'
}

모델

MediaPipe LLM Inference API에는 학습된 텍스트-텍스트 언어 모델이 필요합니다. 사용할 수 있습니다. 모델을 다운로드한 후 필요한 모델을 Android 기기로 푸시해야 합니다. 모델을 사용할 경우 Gemma를 제외한 다른 모든 언어 모델인 경우 MediaPipe가 있습니다.

LLM Inference API에 사용할 수 있는 학습된 모델에 대한 자세한 내용은 작업을 참조하세요. 개요 모델 섹션을 참조하세요.

모델 다운로드

LLM Inference API를 초기화하기 전에 지원되는 모델 중 하나를 다운로드하고 프로젝트 디렉터리에 파일을 저장합니다.

  • Gemma 2B: Google Cloud에서 개발한 최첨단 경량 개방형 모델 제품군의 인공지능을 만드는 데 사용된 것과 동일한 연구와 기술을 Gemini 모델. 다양한 작업에 적합 텍스트 생성 작업(예: 질문 답변, 요약, 있습니다.
  • Phi-2: 매개변수 27억 개 질문-답변, 채팅, 코드에 가장 적합한 Transformer 모델 형식으로 입력합니다.
  • Falcon-RW-1B: 10억 3,500억 개의 토큰으로 학습된 매개변수 인과 디코더 전용 모델 RefinedWeb을 참고하세요.
  • StableLM-3B: 3 매개변수 10억 개에 대해 선행 학습된 디코더 전용 언어 모델 코드 데이터 세트의 토큰에 해당합니다.

또는 다음을 통해 매핑하고 내보낸 모델을 사용할 수 있습니다. AI Edge Troch.

Kaggle에서 제공되는 Gemma 2B를 사용하는 것이 좋습니다. Vertex AI Feature Store의 이미 LLM Inference API와 호환되는 형식으로 변환합니다. 다른 LLM을 사용하려면 모델을 MediaPipe 친화적인 형식입니다. Gemma 2B에 대한 자세한 내용은 Gemma 사이트를 참조하세요. 다른 게시자에 대한 자세한 내용은 사용 가능한 모델은 작업 개요 모델 섹션을 참조하세요.

모델을 MediaPipe 형식으로 변환

네이티브 모델 전환

외부 LLM (Phi-2, Falcon 또는 StableLM) 또는 Kaggle 이외의 도구를 사용하는 경우 변환 스크립트를 사용하여 모델을 MediaPipe와 호환됩니다.

모델 변환 프로세스에는 MediaPipe PyPI 패키지가 필요합니다. 전환 스크립트는 0.10.11 이후의 모든 MediaPipe 패키지에서 사용할 수 있습니다.

다음을 사용하여 종속 항목을 설치하고 가져옵니다.

$ python3 -m pip install mediapipe

genai.converter 라이브러리를 사용하여 모델을 변환합니다.

import mediapipe as mp
from mediapipe.tasks.python.genai import converter

config = converter.ConversionConfig(
  input_ckpt=INPUT_CKPT,
  ckpt_format=CKPT_FORMAT,
  model_type=MODEL_TYPE,
  backend=BACKEND,
  output_dir=OUTPUT_DIR,
  combine_file_only=False,
  vocab_model_file=VOCAB_MODEL_FILE,
  output_tflite_file=OUTPUT_TFLITE_FILE,
)

converter.convert_checkpoint(config)

LoRA 모델을 변환하려면 ConversionConfig에서 기본 모델을 지정해야 합니다. 추가 LoRA 옵션도 제공합니다 이 API는 GPU에서 LoRA 추론을 지원하는 경우 백엔드는 'gpu'로 설정해야 합니다.

import mediapipe as mp
from mediapipe.tasks.python.genai import converter

config = converter.ConversionConfig(
  # Other params related to base model
  ...
  # Must use gpu backend for LoRA conversion
  backend='gpu',
  # LoRA related params
  lora_ckpt=LORA_CKPT,
  lora_rank=LORA_RANK,
  lora_output_tflite_file=LORA_OUTPUT_TFLITE_FILE,
)

converter.convert_checkpoint(config)

변환기는 기본 모델용 TFLite 플랫버퍼 파일 2개를 출력합니다. 다른 하나는 LoRA 모델에 사용합니다

매개변수 설명 허용되는 값
input_ckpt model.safetensors 또는 pytorch.bin 파일의 경로입니다. 모델 안전 텐서 형식이 여러 파일로 샤딩되는 경우도 있습니다. 예를 들어 model-00001-of-00003.safetensors, model-00001-of-00003.safetensors model*.safetensors와 같은 파일 패턴을 지정할 수 있습니다. 경로
ckpt_format 모델 파일 형식입니다. {"safetensors", "pytorch"}
model_type 변환되는 LLM입니다. {&quot;PHI_2&quot;, &quot;FALCON_RW_1B&quot;, &quot;STABLELM_4E1T_3B&quot;, &quot;GEMMA_2B&quot;}
backend 모델을 실행하는 데 사용된 프로세서 (위임)입니다. {&quot;cpu&quot;, &quot;gpu&quot;}
output_dir 레이어별 가중치 파일을 호스팅하는 출력 디렉터리의 경로입니다. 경로
output_tflite_file 출력 파일의 경로입니다. 예: 'model_cpu.bin' 또는 'model_gpu.bin'으로 지정할 수 있습니다. 이 파일은 LLM Inference API와만 호환되며 일반 `tflite` 파일로 사용할 수 없습니다. 경로
vocab_model_file tokenizer.json 및 파일 tokenizer_config.json개. Gemma의 경우 단일 tokenizer.model 파일을 가리킵니다. 경로
lora_ckpt LoRA 어댑터 가중치를 저장하는 Safetensors 파일의 LoRA ckpt의 경로입니다. 경로
lora_rank LoRA ckpt의 순위를 나타내는 정수입니다. Loa 가중치를 변환하는 데 필요합니다. 제공되지 않으면 변환기는 LoRA 가중치가 없다고 가정합니다. 참고: GPU 백엔드만 LoRA를 지원합니다. 정수
lora_output_tflite_file LoRA 가중치의 tflite 파일 이름을 출력합니다. 경로

AI Edge 모델 변환

AI Edge를 통해 TFLite 모델에 매핑된 LLM을 사용하는 경우 스크립트를 번들로 묶어 작업 번들을 생성하는 방법 번들 프로세스는 추가 메타데이터 (예: Tokenizer 매개변수)이 필요합니다. 엔드 투 엔드 추론을 실행할 수 있습니다

모델 번들 프로세스에는 MediaPipe PyPI 패키지가 필요합니다. 전환 스크립트는 0.10.14 이후의 모든 MediaPipe 패키지에서 사용할 수 있습니다.

다음을 사용하여 종속 항목을 설치하고 가져옵니다.

$ python3 -m pip install mediapipe

genai.bundler 라이브러리를 사용하여 모델을 번들로 묶습니다.

import mediapipe as mp
from mediapipe.tasks.python.genai import bundler

config = bundler.BundleConfig(
    tflite_model=TFLITE_MODEL,
    tokenizer_model=TOKENIZER_MODEL,
    start_token=START_TOKEN,
    stop_tokens=STOP_TOKENS,
    output_filename=OUTPUT_FILENAME,
    enable_bytes_to_unicode_mapping=ENABLE_BYTES_TO_UNICODE_MAPPING,
)
bundler.create_bundle(config)
매개변수 설명 허용되는 값
tflite_model AI Edge에서 내보낸 TFLite 모델의 경로입니다. 경로
tokenizer_model SentencePiece tokenizer 모델의 경로입니다. 경로
start_token 모델별 시작 토큰입니다. 시작 토큰은 tokenizer 모델을 제공합니다. STRING
stop_tokens 특정 중지 토큰을 모델링합니다. 중지 토큰은 tokenizer 모델을 제공합니다. 목록[문자열]
output_filename 출력 작업 번들 파일의 이름입니다. 경로

기기에 모델 푸시

output_path 폴더의 콘텐츠를 Android에 푸시 있습니다.

$ adb shell rm -r /data/local/tmp/llm/ # Remove any previously loaded models
$ adb shell mkdir -p /data/local/tmp/llm/
$ adb push output_path /data/local/tmp/llm/model_version.bin

할 일 만들기

MediaPipe LLM Inference API는 createFromOptions() 함수를 사용하여 태스크에 맞추는 것입니다. createFromOptions() 함수는 구성 값을 허용합니다. 있습니다. 구성 옵션에 대한 자세한 내용은 구성을 참조하세요. 옵션을 참조하세요.

다음 코드는 기본 구성 옵션을 사용하여 작업을 초기화합니다.

// Set the configuration options for the LLM Inference task
val options = LlmInferenceOptions.builder()
        .setModelPATH('/data/local/.../')
        .setMaxTokens(1000)
        .setTopK(40)
        .setTemperature(0.8)
        .setRandomSeed(101)
        .build()

// Create an instance of the LLM Inference task
llmInference = LlmInference.createFromOptions(context, options)

구성 옵션

다음 구성 옵션을 사용하여 Android 앱을 설정합니다.

옵션 이름 설명 값 범위 기본값
modelPath 프로젝트 디렉터리 내에서 모델이 저장된 경로입니다. 경로 해당 사항 없음
maxTokens 모델이 처리하는 최대 토큰 수 (입력 토큰 + 출력 토큰)입니다. 정수 512
topK 생성의 각 단계에서 모델이 고려하는 토큰 수입니다. 가능성이 가장 높은 상위 k개의 토큰으로 예측을 제한합니다. 설정 시 topK를 사용하는 경우 randomSeed입니다. 정수 40
temperature 생성 중에 도입된 임의성의 양입니다. 더 높은 온도는 생성된 텍스트에서 더 창의성을 발휘하지만 온도가 낮으면 더 예측 가능한 생성이 생성됩니다. 설정 시 temperature를 사용하는 경우 randomSeed입니다. 부동 소수점 수 0.8
randomSeed 텍스트 생성 중에 사용되는 임의의 시드입니다. 정수 0
loraPath 기기에서 로컬로 LoRA 모델의 절대 경로입니다. 참고: GPU 모델과만 호환됩니다. 경로 해당 사항 없음
resultListener 결과를 비동기식으로 수신하도록 결과 리스너를 설정합니다. 비동기 생성 메서드를 사용하는 경우에만 적용됩니다. 해당 사항 없음 해당 사항 없음
errorListener 선택적 오류 리스너를 설정합니다. 해당 사항 없음 해당 사항 없음

데이터 준비

LLM Inference API는 다음 입력을 허용합니다.

  • prompt (문자열): 질문 또는 프롬프트입니다.
val inputPrompt = "Compose an email to remind Brett of lunch plans at noon on Saturday."

작업 실행

generateResponse() 메서드를 사용하여 입력에 대한 텍스트 응답을 생성합니다. 이전 섹션 (inputPrompt)에서 제공한 텍스트입니다. 이렇게 하면 확인할 수 있습니다.

val result = llmInference.generateResponse(inputPrompt)
logger.atInfo().log("result: $result")

응답을 스트리밍하려면 generateResponseAsync() 메서드를 사용합니다.

val options = LlmInference.LlmInferenceOptions.builder()
  ...
  .setResultListener { partialResult, done ->
    logger.atInfo().log("partial result: $partialResult")
  }
  .build()

llmInference.generateResponseAsync(inputPrompt)

결과 처리 및 표시

LLM Inference API는 생성된 LlmInferenceResult 응답 텍스트입니다.

Here's a draft you can use:

Subject: Lunch on Saturday Reminder

Hi Brett,

Just a quick reminder about our lunch plans this Saturday at noon.
Let me know if that still works for you.

Looking forward to it!

Best,
[Your Name]

LoRA 모델 맞춤설정

LoRA (Low-Rank Adaptation)를 지원하도록 Mediapipe LLM 추론 API 구성 가능 살펴봤습니다 개발자는 미세 조정된 LoRA 모델을 활용하여 비용 효율적인 학습 프로세스를 통해 LLM의 동작을 맞춤설정할 수 있습니다.

LLM Inference API에 대한 LoRA 지원은 Gemma-2B 및 Phi-2 모델에서 작동합니다. 어텐션 레이어에만 적용되는 LoRA 가중치를 사용하는 GPU 백엔드가 있습니다. 이 초기 구현은 향후 개발을 위한 실험용 API 역할을 합니다. 향후 더 많은 모델과 다양한 유형의 레이어를 지원할 계획입니다. 업데이트.

LoRA 모델 준비

HuggingFace에 관한 안내에 따라 지원되는 모델 유형(Gemma-2B 또는 Phi-2)으로 자체 데이터 세트에서 미세 조정된 LoRA 모델을 학습시킵니다. Gemma-2B 및 Phi-2 모델은 모두 HuggingFace에서 Safetensors 형식으로 제공됩니다. LLM Inference API는 어텐션 레이어에서 LoRA만 지원하므로 다음과 같이 LoraConfig를 만들 때 어텐션 레이어만 지정합니다.

# For Gemma-2B
from peft import LoraConfig
config = LoraConfig(
    r=LORA_RANK,
    target_modules=["q_proj", "v_proj", "k_proj", "o_proj"],
)

# For Phi-2
config = LoraConfig(
    r=LORA_RANK,
    target_modules=["q_proj", "v_proj", "k_proj", "dense"],
)

테스트를 위해 HuggingFace에서 사용할 수 있는 LLM Inference API에 맞게 공개적으로 액세스 가능한 미세 조정된 LoRA 모델을 사용할 수 있습니다. 예를 들어 Gemma-2B의 경우 monsterapi/gemma-2b-lora-maths-orca-200k, Phi-2의 경우 lole25/phi-2-sft-ultrachat-lora입니다.

준비된 데이터 세트로 학습하고 모델을 저장하면 미세 조정된 LoRA 모델 가중치가 포함된 adapter_model.safetensors 파일을 얻습니다. 안전 텐서 파일은 모델 변환에 사용되는 LoRA 체크포인트입니다.

다음 단계에서는 MediaPipe Python 패키지를 사용하여 모델 가중치를 TensorFlow Lite Flatbuffer로 변환해야 합니다. ConversionConfig는 기본 모델 옵션과 추가 LoRA 옵션을 지정해야 합니다. API는 GPU를 사용한 LoRA 추론만 지원하므로 백엔드를 'gpu'로 설정해야 합니다.

import mediapipe as mp
from mediapipe.tasks.python.genai import converter

config = converter.ConversionConfig(
  # Other params related to base model
  ...
  # Must use gpu backend for LoRA conversion
  backend='gpu',
  # LoRA related params
  lora_ckpt=LORA_CKPT,
  lora_rank=LORA_RANK,
  lora_output_tflite_file=LORA_OUTPUT_TFLITE_FILE,
)

converter.convert_checkpoint(config)

변환기는 기본 모델용 TFLite 플랫버퍼 파일 2개를 출력합니다. 다른 하나는 LoRA 모델에 사용합니다

LoRA 모델 추론

웹, Android, iOS LLM Inference API가 LoRA 모델 추론을 지원하도록 업데이트되었습니다. 웹은 런타임 중에 다른 LoRA 모델을 전환할 수 있는 동적 LoRA를 지원합니다. Android 및 iOS는 작업 전체 기간 동안 동일한 LoRA 가중치를 사용하는 정적 LoRA를 지원합니다.

Android는 초기화 중에 정적 LoRA를 지원합니다. LoRA 모델을 로드하려면 사용자는 LoRA 모델 경로와 기본 LLM을 지정해야 합니다.

// Set the configuration options for the LLM Inference task
val options = LlmInferenceOptions.builder()
        .setModelPath('<path to base model>')
        .setMaxTokens(1000)
        .setTopK(40)
        .setTemperature(0.8)
        .setRandomSeed(101)
        .setLoraPath('<path to LoRA model>')
        .build()

// Create an instance of the LLM Inference task
llmInference = LlmInference.createFromOptions(context, options)

LoRA로 LLM 추론을 실행하려면 기본 모델과 동일한 generateResponse() 또는 generateResponseAsync() 메서드를 사용합니다.