PaLM 2는 주요 개발자 사용 사례에서 사용하기 쉽게 최적화된 언어 모델군입니다. PaLM 제품군에는 텍스트 임베딩뿐만 아니라 텍스트 및 채팅 생성에 대해 학습된 변형이 포함되어 있습니다. 이 가이드에서는 사용 사례에 가장 적합한 변형을 결정하는 데 도움이 되도록 각 변형에 관한 정보를 제공합니다.
모델 크기
모델 크기는 동물 이름으로 설명됩니다. 다음 표는 사용 가능한 크기 및 각 크기 간의 상대적 의미를 보여줍니다.
모델 크기
설명
서비스
Bison
가장 적합한 PaLM 2 모델 크기입니다.
문서 유형
채팅
Gecko
가장 작고 효율적인 PaLM 2 모델 크기입니다.
임베딩
모델 변형
다양한 PaLM 모델을 사용할 수 있으며 특정 사용 사례에 맞게 최적화되어 있습니다. 다음 표에서는 각 속성의 속성을 설명합니다.
다양한 버전
속성
설명
Bison 텍스트
모델 최종 업데이트
2023년 5월
모델 코드
text-bison-001
모델 기능
입력: 텍스트
출력: 텍스트
다음과 같은 언어 작업에 최적화되었습니다.
코드 생성
텍스트 생성
텍스트 수정
문제 해결
추천 생성
정보 추출
데이터 추출 또는 생성
AI 에이전트
제로, 1, 퓨샷 작업을 처리할 수 있습니다.
모델 안전성
개발자에게 제공되는 6가지 위험 요소에 대한 조정 가능한 안전 설정입니다.
자세한 내용은 안전 설정 주제를 참고하세요.
비율 제한
요청 90개/분
Bison 채팅
모델 최종 업데이트
2023년 5월
모델 코드
chat-bison-001
모델 기능
입력: 텍스트
출력: 텍스트
대화 형식으로 텍스트를 생성합니다.
채팅 봇 또는 AI 에이전트 구현과 같은 대화상자 언어 작업에 최적화되었습니다.
제로, 1, 퓨샷 작업을 처리할 수 있습니다.
모델 안전성
조정할 수 있는 안전 설정이 없습니다.
비율 제한
요청 90개/분
도마뱀 임베딩
모델 최종 업데이트
2023년 5월
모델 코드
embedding-gecko-001
모델 기능
입력: 텍스트
출력: 텍스트
입력 텍스트의 텍스트 임베딩을 생성합니다.
최대 1,024개 토큰의 텍스트에 대한 임베딩을 만드는 데 최적화되어 있습니다.
모델 안전성
조정할 수 있는 안전 설정이 없습니다.
비율 제한
요청 1,500개/분
모델 메타데이터
ModelService API를 사용하여 입력 및 출력 토큰 한도와 같은 최신 모델에 대한 추가 메타데이터를 가져올 수 있습니다. 다음 표는 text-bison-001 모델 변형의 메타데이터를 보여줍니다.
속성
값
표시 이름
텍스트 들소
모델 코드
models/text-bison-001
설명
텍스트 생성을 위해 타겟팅된 모델
입력 토큰 한도
8196
출력 토큰 한도
1024
지원되는 생성 방법
generateText
강도
0.7
top_p
0.95
top_k
40
모델 속성
아래 표는 모든 모델 변형에 공통된 PaLM 2의 속성을 설명합니다.
속성
설명
학습 데이터
PaLM2의 지식 마감 시간은 2021년 중반입니다.
이 기간 이후의 이벤트에 관한 정보는 제한적입니다.
지원 언어
영어
구성 가능한 모델 매개변수
최상위 P
최상위 K
강도
시퀀스 중지
최대 출력 길이
응답 후보 수
이러한 각 매개변수에 대한 자세한 내용은 LLM 소개 가이드의 모델 매개변수 섹션을 참고하세요.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2024-04-18(UTC)"],[],[],null,["# PaLM 2 models\n\n\u003cbr /\u003e\n\n[PaLM 2](https://ai.google/discover/palm2/)\nis a family of language models, optimized for ease of use on key developer use\ncases. The PaLM family of models includes variations trained for text and chat\ngeneration as well as text embeddings. This guide provides information about\neach variation to help you decide which is the best fit for your use case.\n\nModel sizes\n-----------\n\nThe model sizes are described by an animal name. The following table shows the\navailable sizes and what they mean relative to each other.\n\n| Model size | Description | Services |\n|------------|---------------------------------------------|---------------|\n| Bison | Most capable PaLM 2 model size. | - text - chat |\n| Gecko | Smallest, most efficient PaLM 2 model size. | - embeddings |\n\nModel variations\n----------------\n\nDifferent PaLM models are available and optimized for specific use cases. The\nfollowing table describes attributes of each.\n\n| Variation | Attribute | Description |\n|---------------------|--------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| **Bison Text** | Model last updated | May 2023 |\n| **Bison Text** | Model code | `text-bison-001` |\n| **Bison Text** | Model capabilities | - Input: text - Output: text - Optimized for language tasks such as: - Code generation - Text generation - Text editing - Problem solving - Recommendations generation - Information extraction - Data extraction or generation - AI agent - Can handle zero, one, and few-shot tasks. |\n| **Bison Text** | Model safety | Adjustable safety settings for 6 dimensions of harm available to developers. See the [safety settings](../palm_docs/safety_setting_palm) topic for details. |\n| **Bison Text** | Rate limit | 90 requests per minute |\n| |||\n| **Bison Chat** | Model last updated | May 2023 |\n| **Bison Chat** | Model code | `chat-bison-001` |\n| **Bison Chat** | Model capabilities | - Input: text - Output: text - Generates text in a conversational format. - Optimized for dialog language tasks such as implementation of chat bots or AI agents. - Can handle zero, one, and few-shot tasks. |\n| **Bison Chat** | Model safety | No adjustable safety settings. |\n| **Bison Chat** | Rate limit | 90 requests per minute |\n| |||\n| **Gecko Embedding** | Model last updated | May 2023 |\n| **Gecko Embedding** | Model code | `embedding-gecko-001` |\n| **Gecko Embedding** | Model capabilities | - Input: text - Output: text - Generates text embeddings for the input text. - Optimized for creating embeddings for text of up to 1024 tokens. |\n| **Gecko Embedding** | Model safety | No adjustable safety settings. |\n| **Gecko Embedding** | Rate limit | 1500 requests per minute |\n\nModel metadata\n--------------\n\nUse the `ModelService` API to get additional metadata about\nthe latest models such as input and output token limits. The following table\ndisplays the metadata for the `text-bison-001` model variant.\n| **Note:** For the PaLM 2 model, a token is equivalent to about 4 characters. 100 tokens are about 60-80 English words.\n\n| Attribute | Value |\n|------------------------------|------------------------------------|\n| Display name | Text Bison |\n| Model code | `models/text-bison-001` |\n| Description | Model targeted for text generation |\n| Input token limit | 8196 |\n| Output token limit | 1024 |\n| Supported generation methods | `generateText` |\n| Temperature | 0.7 |\n| top_p | 0.95 |\n| top_k | 40 |\n\nModel attributes\n----------------\n\nThe table below describes the attributes of the PaLM 2 which are common to\nall the model variations.\n| **Note:** The configurable parameters apply only to the text and chat model variations, but not embeddings.\n\n| Attribute | Description |\n|-------------------------------|---------------------------------------------------------------------------------------------------|\n| Training data | PaLM 2's knowledge cutoff time is mid-2021. Knowledge about events after that time is limited. |\n| Supported language | English |\n| Configurable model parameters | - Top p - Top k - Temperature - Stop sequence - Max output length - Number of response candidates |\n\nSee the [model parameters](../docs/concepts#model_parameters) section of the\nIntro to LLMs guide for information about each of these parameters."]]