LLM 추론 API를 사용하면 iOS 애플리케이션에서 대규모 언어 모델 (LLM)을 완전히 기기 내에서 실행할 수 있습니다. 이를 통해 텍스트 생성, 자연어 형식의 정보 검색, 문서 요약과 같은 다양한 태스크를 실행할 수 있습니다. 이 작업은 여러 텍스트 대 텍스트 대규모 언어 모델을 기본적으로 지원하므로 최신 기기 내 생성형 AI 모델을 iOS 앱에 적용할 수 있습니다.
이 작업은 Gemma의 다음 변형을 지원합니다. Gemma-2 2B, Gemma 2B, Gemma 7B Gemma는 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술로 빌드된 최첨단 경량 개방형 모델군입니다. 또한 Phi-2, Falcon-RW-1B, StableLM-3B와 같은 외부 모델도 지원합니다.
지원되는 모델 외에도 사용자는 Google의 AI Edge Torch를 사용하여 PyTorch 모델을 다중 서명 LiteRT (tflite
) 모델로 내보낼 수 있습니다. 이 모델은 토큰 생성기 매개변수와 번들로 묶여 LLM 추론 API와 호환되는 작업 번들을 만듭니다.
MediaPipe 스튜디오 데모에서 이 작업이 실행되는 모습을 확인할 수 있습니다. 이 태스크의 기능, 모델, 구성 옵션에 관한 자세한 내용은 개요를 참고하세요.
코드 예
MediaPipe Tasks 예시 코드는 iOS용 LLM 추론 API 앱의 기본 구현입니다. 이 앱을 자체 iOS 앱의 시작점으로 사용하거나 기존 앱을 수정할 때 참조할 수 있습니다. LLM 추론 API 예시 코드는 GitHub에서 호스팅됩니다.
코드 다운로드
다음 안내에서는 git 명령줄 도구를 사용하여 예시 코드의 로컬 사본을 만드는 방법을 보여줍니다.
예시 코드를 다운로드하려면 다음 안내를 따르세요.
다음 명령어를 사용하여 git 저장소를 클론합니다.
git clone https://github.com/google-ai-edge/mediapipe-samples
원하는 경우 LLM 추론 API 예시 앱의 파일만 포함되도록 스파스 체크아웃을 사용하도록 git 인스턴스를 구성합니다.
cd mediapipe git sparse-checkout init --cone git sparse-checkout set examples/llm_inference/ios/
샘플 코드의 로컬 버전을 만든 후 MediaPipe 작업 라이브러리를 설치하고 Xcode를 사용하여 프로젝트를 열고 앱을 실행할 수 있습니다. 자세한 내용은 iOS 설정 가이드를 참고하세요.
설정
이 섹션에서는 LLM 추론 API를 사용하도록 개발 환경과 코드 프로젝트를 설정하는 주요 단계를 설명합니다. 플랫폼 버전 요구사항을 비롯하여 MediaPipe 작업을 사용하기 위한 개발 환경 설정에 관한 일반적인 정보는 iOS용 설정 가이드를 참고하세요.
종속 항목
LLM 추론 API는 CocoaPods를 사용하여 설치해야 하는 MediaPipeTasksGenai
라이브러리를 사용합니다. 이 라이브러리는 Swift 및 Objective-C 앱과 모두 호환되며 언어별 추가 설정이 필요하지 않습니다.
macOS에 CocoaPods를 설치하는 방법에 관한 안내는 CocoaPods 설치 가이드를 참고하세요.
앱에 필요한 pod로 Podfile
를 만드는 방법에 관한 안내는 CocoaPods 사용을 참고하세요.
다음 코드를 사용하여 Podfile
에 MediaPipeTasksGenai
모듈을 추가합니다.
target 'MyLlmInferenceApp' do
use_frameworks!
pod 'MediaPipeTasksGenAI'
pod 'MediaPipeTasksGenAIC'
end
앱에 단위 테스트 타겟이 포함된 경우 Podfile
설정에 관한 자세한 내용은 iOS용 설정 가이드를 참고하세요.
모델
MediaPipe LLM 추론 API 작업에는 이 작업과 호환되는 학습된 모델이 필요합니다. LLM 추론 API에 사용할 수 있는 학습된 모델에 관한 자세한 내용은 태스크 개요 모델 섹션을 참고하세요.
모델 다운로드
모델을 다운로드하고 Xcode를 사용하여 프로젝트 디렉터리에 추가합니다. Xcode 프로젝트에 파일을 추가하는 방법에 관한 안내는 Xcode 프로젝트에서 파일 및 폴더 관리를 참고하세요.
LLM 추론 API를 초기화하기 전에 지원되는 모델 중 하나를 다운로드하고 프로젝트 디렉터리에 파일을 저장합니다.
- Gemma-2 2B: Gemma 모델 제품군의 최신 버전입니다. Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술로 빌드된 최첨단 경량 개방형 모델군의 일부입니다.
- Gemma 2B: Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술로 빌드된 최첨단 경량 개방형 모델 제품군의 일부입니다. 질문 답변, 요약, 추론을 비롯한 다양한 텍스트 생성 작업에 적합합니다.
- Phi-2: 질문-답변, 채팅, 코드 형식에 가장 적합한 27억 개의 매개변수 Transformer 모델입니다.
- Falcon-RW-1B: RefinedWeb의 3,500억 개 토큰으로 학습된 10억 개 매개변수의 인과적 디코더 전용 모델입니다.
- StableLM-3B: 다양한 영어 및 코드 데이터 세트의 1조 개 토큰으로 사전 학습된 30억 개의 매개변수 디코더 전용 언어 모델입니다.
지원되는 모델 외에도 Google의 AI Edge Torch를 사용하여 PyTorch 모델을 다중 서명 LiteRT (tflite
) 모델로 내보낼 수 있습니다. 자세한 내용은 PyTorch 모델용 Torch 생성형 변환기를 참고하세요.
Kaggle Models에서 제공되는 Gemma-2 2B를 사용하는 것이 좋습니다. 사용 가능한 다른 모델에 관한 자세한 내용은 작업 개요 모델 섹션을 참고하세요.
모델을 MediaPipe 형식으로 변환
LLM 추론 API는 두 가지 카테고리 유형의 모델과 호환되며, 그중 일부는 모델 변환이 필요합니다. 표를 사용하여 모델에 필요한 단계 메서드를 식별합니다.
모델 | 전환 방법 | 호환되는 플랫폼 | 파일 형식 | |
---|---|---|---|---|
지원되는 모델 | Gemma 2B, Gemma 7B, Gemma-2 2B, Phi-2, StableLM, Falcon | MediaPipe | Android, iOS, 웹 | .bin |
기타 PyTorch 모델 | 모든 PyTorch LLM 모델 | AI Edge Torch 생성형 라이브러리 | Android, iOS | .task |
Google에서는 Kaggle에서 Gemma 2B, Gemma 7B, Gemma-2 2B용으로 변환된 .bin
파일을 호스팅하고 있습니다. 이러한 모델은 LLM 추론 API를 사용하여 직접 배포할 수 있습니다. 다른 모델을 변환하는 방법을 알아보려면 모델 변환 섹션을 참고하세요.
할 일 만들기
이니셜라이저 중 하나를 호출하여 LLM Inference API 태스크를 만들 수 있습니다. LlmInference(options:)
이니셜라이저는 구성 옵션의 값을 설정합니다.
맞춤설정된 구성 옵션으로 초기화된 LLM 추론 API가 필요하지 않은 경우 LlmInference(modelPath:)
이니셜라이저를 사용하여 기본 옵션으로 LLM 추론 API를 만들 수 있습니다. 구성 옵션에 관한 자세한 내용은 구성 개요를 참고하세요.
다음 코드는 이 태스크를 빌드하고 구성하는 방법을 보여줍니다.
import MediaPipeTasksGenai
let modelPath = Bundle.main.path(forResource: "model",
ofType: "bin")
let options = LlmInferenceOptions()
options.baseOptions.modelPath = modelPath
options.maxTokens = 1000
options.topk = 40
options.temperature = 0.8
options.randomSeed = 101
let llmInference = try LlmInference(options: options)
구성 옵션
이 작업에는 iOS 앱에 관한 다음과 같은 구성 옵션이 있습니다.
옵션 이름 | 설명 | 값 범위 | 기본값 |
---|---|---|---|
modelPath |
프로젝트 디렉터리 내에서 모델이 저장되는 위치의 경로입니다. | 경로 | 해당 사항 없음 |
maxTokens |
모델이 처리하는 최대 토큰 수 (입력 토큰 + 출력 토큰)입니다. | 정수 | 512 |
topk |
생성의 각 단계에서 모델이 고려하는 토큰 수입니다. 예측을 가장 확률이 높은 상위 k개 토큰으로 제한합니다. | 정수 | 40 |
temperature |
생성 중에 도입된 무작위성의 양입니다. 온도가 높을수록 생성된 텍스트의 창의성이 높아지고, 온도가 낮을수록 더 예측 가능한 생성이 이루어집니다. | 부동 소수점 수 | 0.8 |
randomSeed |
텍스트 생성 중에 사용되는 무작위 시드입니다. | 정수 | 0 |
loraPath |
기기의 로컬에 있는 LoRA 모델의 절대 경로입니다. 참고: GPU 모델과만 호환됩니다. | 경로 | 해당 사항 없음 |
데이터 준비
LLM 추론 API는 텍스트 데이터와 함께 작동합니다. 이 작업은 토큰화 및 텐서 사전 처리를 비롯한 데이터 입력 사전 처리를 처리합니다.
모든 사전 처리는 generateResponse(inputText:)
함수 내에서 처리됩니다.
사전에 입력 텍스트를 추가로 사전 처리할 필요가 없습니다.
let inputPrompt = "Compose an email to remind Brett of lunch plans at noon on Saturday."
태스크 실행
LLM 추론 API를 실행하려면 generateResponse(inputText:)
메서드를 사용하세요. LLM 추론 API는 입력 텍스트의 가능한 카테고리를 반환합니다.
let result = try LlmInference.generateResponse(inputText: inputPrompt)
응답을 스트리밍하려면 generateResponseAsync(inputText:)
메서드를 사용합니다.
let resultStream = LlmInference.generateResponseAsync(inputText: inputPrompt)
do {
for try await partialResult in resultStream {
print("\(partialResult)")
}
print("Done")
}
catch {
print("Response error: '\(error)")
}
결과 처리 및 표시
LLM 추론 API는 생성된 응답 텍스트를 반환합니다.
Here's a draft you can use:
Subject: Lunch on Saturday Reminder
Hi Brett,
Just a quick reminder about our lunch plans this Saturday at noon.
Let me know if that still works for you.
Looking forward to it!
Best,
[Your Name]
LoRA 모델 맞춤설정
Mediapipe LLM 추론 API는 대규모 언어 모델의 하위 순위 조정(LoRA)을 지원하도록 구성할 수 있습니다. 미세 조정된 LoRA 모델을 활용하면 개발자는 비용 효율적인 학습 프로세스를 통해 LLM의 동작을 맞춤설정할 수 있습니다.
LLM 추론 API의 LoRA 지원은 GPU 백엔드의 모든 Gemma 변형 및 Phi-2 모델에 작동하며, LoRA 가중치는 주목 레이어에만 적용됩니다. 이 초기 구현은 향후 업데이트에서 더 많은 모델과 다양한 유형의 레이어를 지원할 계획이 있는 향후 개발을 위한 실험용 API로 사용됩니다.
LoRA 모델 준비
HuggingFace의 안내에 따라 지원되는 모델 유형인 Gemma 또는 Phi-2를 사용하여 자체 데이터 세트에서 미세 조정된 LoRA 모델을 학습합니다. Gemma-2 2B, Gemma 2B, Phi-2 모델은 모두 HuggingFace에서 safetensors 형식으로 사용할 수 있습니다. LLM 추론 API는 주목 레이어에서만 LoRA를 지원하므로 다음과 같이 LoraConfig
를 만들 때만 주목 레이어를 지정합니다.
# For Gemma
from peft import LoraConfig
config = LoraConfig(
r=LORA_RANK,
target_modules=["q_proj", "v_proj", "k_proj", "o_proj"],
)
# For Phi-2
config = LoraConfig(
r=LORA_RANK,
target_modules=["q_proj", "v_proj", "k_proj", "dense"],
)
테스트를 위해 HuggingFace에서 제공하는 LLM 추론 API에 적합한 미세 조정된 LoRA 모델을 공개적으로 액세스할 수 있습니다. 예를 들어 Gemma-2B의 경우 monsterapi/gemma-2b-lora-maths-orca-200k, Phi-2의 경우 lole25/phi-2-sft-ultrachat-lora입니다.
준비된 데이터 세트에서 학습하고 모델을 저장하면 미세 조정된 LoRA 모델 가중치가 포함된 adapter_model.safetensors
파일이 생성됩니다.
safetensors 파일은 모델 변환에 사용되는 LoRA 체크포인트입니다.
다음 단계로 MediaPipe Python 패키지를 사용하여 모델 가중치를 TensorFlow Lite Flatbuffer로 변환해야 합니다. ConversionConfig
는 기본 모델 옵션과 추가 LoRA 옵션을 지정해야 합니다. API는 GPU를 사용한 LoRA 추론만 지원하므로 백엔드는 'gpu'
로 설정해야 합니다.
import mediapipe as mp
from mediapipe.tasks.python.genai import converter
config = converter.ConversionConfig(
# Other params related to base model
...
# Must use gpu backend for LoRA conversion
backend='gpu',
# LoRA related params
lora_ckpt=LORA_CKPT,
lora_rank=LORA_RANK,
lora_output_tflite_file=LORA_OUTPUT_TFLITE_FILE,
)
converter.convert_checkpoint(config)
변환기는 기본 모델용과 LoRA 모델용의 두 가지 TFLite FlatBuffer 파일을 출력합니다.
LoRA 모델 추론
LoRA 모델 추론을 지원하도록 웹, Android, iOS LLM 추론 API가 업데이트되었습니다.
iOS는 초기화 중에 정적 LoRA를 지원합니다. LoRA 모델을 로드하려면 사용자가 LoRA 모델 경로와 기본 LLM을 지정합니다.import MediaPipeTasksGenai
let modelPath = Bundle.main.path(forResource: "model",
ofType: "bin")
let loraPath= Bundle.main.path(forResource: "lora_model",
ofType: "bin")
let options = LlmInferenceOptions()
options.modelPath = modelPath
options.maxTokens = 1000
options.topk = 40
options.temperature = 0.8
options.randomSeed = 101
options.loraPath = loraPath
let llmInference = try LlmInference(options: options)
LoRA로 LLM 추론을 실행하려면 베이스 모델과 동일한 generateResponse()
또는 generateResponseAsync()
메서드를 사용합니다.