iOS용 LLM 추론 가이드

<ph type="x-smartling-placeholder">를 통해 개인정보처리방침을 정의할 수 있습니다.

LLM Inference API를 사용하면 기기 내에서만 대규모 언어 모델 (LLM)을 실행할 수 있습니다. iOS 애플리케이션의 경우, 웹 서버와 같은 다양한 작업을 수행하는 데 텍스트 생성, 자연어 형식으로 정보 검색, 문서 요약 이 작업은 여러 대규모 언어 모델을 지원하므로 기기 내 최신 기능을 적용할 수 있습니다. iOS 앱에 통합할 수 있습니다.

이 작업은 MediaPipe Studio에서 직접 확인할 수 있습니다. 데모를 참고하세요. 기능, 모델, 구성 옵션에 대한 자세한 내용은 개요를 참조하세요.

코드 예

MediaPipe 태스크 예시 코드는 LLM Inference API의 기본 구현입니다. 되었습니다. 이 앱을 자체 iOS 앱의 시작점으로 사용할 수 있습니다. 기존 앱을 수정할 때 참고할 수 있습니다 LLM Inference API 예시 코드는 다음과 같습니다. 호스팅 GitHub

코드 다운로드

다음 안내에서는 예시의 로컬 사본을 만드는 방법을 보여줍니다. git 명령줄 도구를 사용하여 코드를 실행합니다.

예시 코드를 다운로드하려면 다음 안내를 따르세요.

  1. 다음 명령어를 사용하여 git 저장소를 클론합니다.

    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. 원하는 경우 스파스 체크아웃을 사용하도록 git 인스턴스를 구성하여 다음과 같이 합니다. LLM Inference API 예시 앱의 파일만 해당합니다.

    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/llm_inference/ios/
    

예시 코드의 로컬 버전을 생성한 후 MediaPipe 작업 라이브러리에서 Xcode를 사용하여 프로젝트를 열고 앱을 실행합니다. 대상 iOS 설정 가이드를 참조하세요.

설정

이 섹션에서는 개발 환경을 설정하는 주요 단계를 설명하고 LLM Inference API를 사용할 수 있습니다. 설정 방법에 대한 일반적인 정보는 MediaPipe 작업을 사용하기 위한 개발 환경(플랫폼 버전 포함) 요구사항에 대한 자세한 내용은 iOS 설정 가이드를 참고하세요.

<ph type="x-smartling-placeholder">

종속 항목

LLM Inference API는 MediaPipeTasksGenai 라이브러리를 사용하며 이 라이브러리가 설치되어 있어야 합니다. CocoaPods를 사용하는 것입니다. Swift 및 Objective-C 앱 모두와 호환됩니다. 언어별 추가 설정이 필요하지 않습니다.

macOS에 CocoaPods를 설치하는 방법에 대한 안내는 CocoaPods 설치 가이드를 참조하세요. 필요한 포드로 Podfile를 만드는 방법에 대한 안내는 자세한 내용은 CocoaPods.

다음 코드를 사용하여 PodfileMediaPipeTasksGenai 포드를 추가합니다.

target 'MyLlmInferenceApp' do
  use_frameworks!
  pod 'MediaPipeTasksGenAI'
  pod 'MediaPipeTasksGenAIC'
end

앱에 단위 테스트 타겟이 포함된 경우 Android 앱의 설정 가이드 iOS를 참고하세요. 내 Podfile

모델

MediaPipe LLM Inference API 작업에는 호환되는 학습된 모델이 필요합니다. 살펴보겠습니다 다양한 플랫폼에서 사용 가능한 학습된 모델에 대한 LLM Inference API에 대한 자세한 내용은 작업 개요 모델 섹션을 참고하세요.

모델 다운로드

모델을 다운로드하고 Xcode를 사용하여 프로젝트 디렉터리에 추가합니다. 대상 Xcode 프로젝트에 파일을 추가하는 방법에 대한 안내는 파일 관리 폴더에 있는 모든 파일에 프로젝트의 인스턴스입니다.

<ph type="x-smartling-placeholder"></ph> Gemma 2B 다운로드 를 통해 개인정보처리방침을 정의할 수 있습니다.

iOS 앱을 빌드할 때는 다음 변형 중 하나를 사용합니다.

  • gemma-2b-it-cpu-int4: CPU 호환성을 갖춘 Gemma 4비트 모델입니다.
  • gemma-2b-it-gpu-int4: GPU와 호환되는 Gemma 4비트 모델입니다.
  • iOS 메모리 요구사항을 준수하는 AI Edge Torch 매핑 모델입니다.

다른 모델에 대한 자세한 내용은 작업 개요를 참조하세요. 모델 섹션을 참조하세요.

할 일 만들기

이니셜라이저 중 하나를 호출하여 LLM Inference API 작업을 만들 수 있습니다. 이 LlmInference(options:) 이니셜라이저는 구성 옵션의 값을 설정합니다.

맞춤설정된 구성으로 초기화한 LLM Inference API가 필요하지 않은 경우 LlmInference(modelPath:) 이니셜라이저를 사용하여 LLM Inference API를 제공합니다. 구성에 대한 자세한 내용은 옵션은 구성 개요를 참고하세요.

다음 코드는 이 작업을 빌드하고 구성하는 방법을 보여줍니다.

import MediaPipeTasksGenai

let modelPath = Bundle.main.path(forResource: "model",
                                      ofType: "bin")

let options = LlmInferenceOptions()
options.baseOptions.modelPath = modelPath
options.maxTokens = 1000
options.topk = 40
options.temperature = 0.8
options.randomSeed = 101

let LlmInference = try LlmInference(options: options)

구성 옵션

이 작업에는 iOS 앱을 위한 다음과 같은 구성 옵션이 있습니다.

옵션 이름 설명 값 범위 기본값
modelPath 프로젝트 디렉터리 내에서 모델이 저장된 경로입니다. 경로 해당 사항 없음
maxTokens 모델이 처리하는 최대 토큰 수 (입력 토큰 + 출력 토큰)입니다. 정수 512
topk 생성의 각 단계에서 모델이 고려하는 토큰 수입니다. 가능성이 가장 높은 상위 k개의 토큰으로 예측을 제한합니다. 정수 40
temperature 생성 중에 도입된 임의성의 양입니다. 더 높은 온도는 생성된 텍스트에서 더 창의성을 발휘하지만 온도가 낮으면 더 예측 가능한 생성이 생성됩니다. 부동 소수점 수 0.8
randomSeed 텍스트 생성 중에 사용되는 임의의 시드입니다. 정수 0
loraPath 기기에서 로컬로 LoRA 모델의 절대 경로입니다. 참고: GPU 모델과만 호환됩니다. 경로 해당 사항 없음

데이터 준비

LLM Inference API는 텍스트 데이터를 사용합니다. 작업에서 데이터 입력을 처리함 전처리(토큰화 및 텐서 전처리 포함)

모든 사전 처리는 generateResponse(inputText:) 함수 내에서 처리됩니다. 사전에 입력 텍스트를 추가로 사전 처리할 필요는 없습니다.

let inputPrompt = "Compose an email to remind Brett of lunch plans at noon on Saturday."

작업 실행

LLM Inference API를 실행하려면 generateResponse(inputText:) 메서드를 사용합니다. 이 LLM Inference API는 입력 텍스트에 가능한 카테고리를 반환합니다.

let result = try LlmInference.generateResponse(inputText: inputPrompt)

응답을 스트리밍하려면 generateResponseAsync(inputText:) 메서드를 사용합니다.

let resultStream =  LlmInference.generateResponseAsync(inputText: inputPrompt)

do {
  for try await partialResult in resultStream {
    print("\(partialResult)")
  }
  print("Done")
}
catch {
  print("Response error: '\(error)")
}

결과 처리 및 표시

LLM Inference API는 생성된 LlmInferenceResult 응답 텍스트입니다.

Here's a draft you can use:

Subject: Lunch on Saturday Reminder

Hi Brett,

Just a quick reminder about our lunch plans this Saturday at noon.
Let me know if that still works for you.

Looking forward to it!

Best,
[Your Name]

LoRA 모델 맞춤설정

LoRA (Low-Rank Adaptation)를 지원하도록 Mediapipe LLM 추론 API 구성 가능 살펴봤습니다 개발자는 미세 조정된 LoRA 모델을 활용하여 비용 효율적인 학습 프로세스를 통해 LLM의 동작을 맞춤설정할 수 있습니다.

LLM Inference API에 대한 LoRA 지원은 Gemma-2B 및 Phi-2 모델에서 작동합니다. 어텐션 레이어에만 적용되는 LoRA 가중치를 사용하는 GPU 백엔드가 있습니다. 이 초기 구현은 향후 개발을 위한 실험용 API 역할을 합니다. 향후 더 많은 모델과 다양한 유형의 레이어를 지원할 계획입니다. 업데이트.

LoRA 모델 준비

HuggingFace에 관한 안내에 따라 지원되는 모델 유형(Gemma-2B 또는 Phi-2)으로 자체 데이터 세트에서 미세 조정된 LoRA 모델을 학습시킵니다. Gemma-2B 및 Phi-2 모델은 모두 HuggingFace에서 Safetensors 형식으로 제공됩니다. LLM Inference API는 어텐션 레이어에서 LoRA만 지원하므로 다음과 같이 LoraConfig를 만들 때 어텐션 레이어만 지정합니다.

# For Gemma-2B
from peft import LoraConfig
config = LoraConfig(
    r=LORA_RANK,
    target_modules=["q_proj", "v_proj", "k_proj", "o_proj"],
)

# For Phi-2
config = LoraConfig(
    r=LORA_RANK,
    target_modules=["q_proj", "v_proj", "k_proj", "dense"],
)

테스트를 위해 HuggingFace에서 사용할 수 있는 LLM Inference API에 맞게 공개적으로 액세스 가능한 미세 조정된 LoRA 모델을 사용할 수 있습니다. 예를 들어 Gemma-2B의 경우 monsterapi/gemma-2b-lora-maths-orca-200k, Phi-2의 경우 lole25/phi-2-sft-ultrachat-lora입니다.

준비된 데이터 세트로 학습하고 모델을 저장하면 미세 조정된 LoRA 모델 가중치가 포함된 adapter_model.safetensors 파일을 얻습니다. 안전 텐서 파일은 모델 변환에 사용되는 LoRA 체크포인트입니다.

다음 단계에서는 MediaPipe Python 패키지를 사용하여 모델 가중치를 TensorFlow Lite Flatbuffer로 변환해야 합니다. ConversionConfig는 기본 모델 옵션과 추가 LoRA 옵션을 지정해야 합니다. API는 GPU를 사용한 LoRA 추론만 지원하므로 백엔드를 'gpu'로 설정해야 합니다.

import mediapipe as mp
from mediapipe.tasks.python.genai import converter

config = converter.ConversionConfig(
  # Other params related to base model
  ...
  # Must use gpu backend for LoRA conversion
  backend='gpu',
  # LoRA related params
  lora_ckpt=LORA_CKPT,
  lora_rank=LORA_RANK,
  lora_output_tflite_file=LORA_OUTPUT_TFLITE_FILE,
)

converter.convert_checkpoint(config)

변환기는 기본 모델용 TFLite 플랫버퍼 파일 2개를 출력합니다. 다른 하나는 LoRA 모델에 사용합니다

LoRA 모델 추론

웹, Android, iOS LLM Inference API가 LoRA 모델 추론을 지원하도록 업데이트되었습니다. 웹은 런타임 중에 다른 LoRA 모델을 전환할 수 있는 동적 LoRA를 지원합니다. Android 및 iOS는 작업 전체 기간 동안 동일한 LoRA 가중치를 사용하는 정적 LoRA를 지원합니다.

iOS는 초기화 중에 정적 LoRA를 지원합니다. LoRA 모델을 로드하려면 사용자는 LoRA 모델 경로와 기본 LLM을 지정해야 합니다.

import MediaPipeTasksGenai

let modelPath = Bundle.main.path(forResource: "model",
                                      ofType: "bin")
let loraPath= Bundle.main.path(forResource: "lora_model",
                                      ofType: "bin")
let options = LlmInferenceOptions()
options.modelPath = modelPath
options.maxTokens = 1000
options.topk = 40
options.temperature = 0.8
options.randomSeed = 101
options.loraPath = loraPath

let LlmInference = try LlmInference(options: options)

LoRA로 LLM 추론을 실행하려면 기본 모델과 동일한 generateResponse() 또는 generateResponseAsync() 메서드를 사용합니다.