PaLM (deprecated)

Phương thức: model.generateText

Tạo phản hồi từ mô hình khi có thông báo đầu vào.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Tham số đường dẫn

model string

Bắt buộc. Tên của Model hoặc TunedModel dùng để tạo hoàn thành. Ví dụ: model/text-bison-001 TuningModels/sentence-translator-u3b7m Mã này có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Số trường
prompt object (TextPrompt)

Bắt buộc. Văn bản đầu vào dạng tự do được cung cấp cho mô hình dưới dạng câu lệnh.

Khi đưa ra một câu lệnh, mô hình sẽ tạo một phản hồi TextCompletion (Hoàn thành văn bản) mà mô hình dự đoán khi hoàn tất văn bản nhập.

safetySettings[] object (SafetySetting)

Không bắt buộc. Danh sách các thực thể SafetySetting riêng biệt dùng để chặn nội dung không an toàn.

sẽ được thực thi trên GenerateTextRequest.promptGenerateTextResponse.candidates. Không được có nhiều hơn một chế độ cài đặt cho mỗi loại SafetyCategory. API này sẽ chặn mọi lời nhắc và phản hồi không đáp ứng ngưỡng do các chế độ cài đặt này đặt ra. Danh sách này ghi đè các chế độ cài đặt mặc định cho từng SafetyCategory được chỉ định trong phần safetySettings. Nếu không có SafetySetting cho một SafetyCategory nhất định được cung cấp trong danh sách, API sẽ sử dụng chế độ cài đặt an toàn mặc định cho danh mục đó. Danh mục gây hại HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICS, HARM_CATEGORY_DANGEROUS được hỗ trợ trong dịch vụ văn bản.

stopSequences[] string

Tập hợp các chuỗi ký tự (tối đa 5) sẽ ngừng tạo dữ liệu đầu ra. Nếu được chỉ định, API sẽ dừng ở lần xuất hiện đầu tiên của chuỗi dừng. Trình tự dừng sẽ không được đưa vào phản hồi.

temperature number

Không bắt buộc. Kiểm soát độ ngẫu nhiên của dữ liệu đầu ra. Lưu ý: Giá trị mặc định sẽ khác nhau tuỳ theo mô hình. Hãy xem thuộc tính Model.temperature của Model đã trả về hàm getModel.

Giá trị có thể nằm trong khoảng từ [0,0,1,0]. Giá trị gần 1.0 sẽ tạo ra các câu trả lời đa dạng và sáng tạo hơn, trong khi giá trị gần hơn 0 thường sẽ dẫn đến các câu trả lời đơn giản hơn từ mô hình.

candidateCount integer

Không bắt buộc. Số lượng câu trả lời đã tạo cần trả về.

Giá trị này phải nằm trong khoảng từ [1, 8]. Nếu bạn không đặt chính sách này, giá trị mặc định sẽ là 1.

maxOutputTokens integer

Không bắt buộc. Số lượng mã thông báo tối đa cần đưa vào một ứng viên.

Nếu bạn không đặt chính sách này, thì chế độ này sẽ mặc định là outputTokenLimit được chỉ định trong quy cách Model.

topP number

Không bắt buộc. Xác suất tích luỹ tối đa của mã thông báo cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Hệ thống sắp xếp các mã thông báo dựa trên xác suất đã chỉ định của chúng để chỉ xem xét những mã thông báo có nhiều khả năng nhất. Phương pháp lấy mẫu hàng đầu giới hạn trực tiếp số lượng mã thông báo tối đa cần xem xét, trong khi phương pháp lấy mẫu hạt nhân giới hạn số lượng mã thông báo dựa trên xác suất tích luỹ.

Lưu ý: Giá trị mặc định sẽ khác nhau tuỳ theo mô hình. Hãy xem thuộc tính Model.top_p của Model đã trả về hàm getModel.

topK integer

Không bắt buộc. Số lượng mã thông báo tối đa cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Tính năng lấy mẫu hàng đầu sẽ xem xét tập hợp topK mã thông báo có khả năng xuất hiện nhiều nhất. Giá trị mặc định là 40.

Lưu ý: Giá trị mặc định sẽ khác nhau tuỳ theo mô hình. Hãy xem thuộc tính Model.top_k của Model đã trả về hàm getModel.

Nội dung phản hồi

Nếu thành công, nội dung phản hồi sẽ chứa một phiên bản của GenerateTextResponse.

Phương thức: model.countTextTokens

Chạy trình tạo mã thông báo của mô hình trên một văn bản và trả về số lượng mã thông báo.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Tham số đường dẫn

model string

Bắt buộc. Tên tài nguyên của mô hình. Giá trị này đóng vai trò là mã nhận dạng cho Mô hình sử dụng.

Tên này phải khớp với tên mô hình được phương thức models.list trả về.

Định dạng: models/{model}. Định dạng này có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Số trường
prompt object (TextPrompt)

Bắt buộc. Văn bản đầu vào dạng tự do được cung cấp cho mô hình dưới dạng câu lệnh.

Nội dung phản hồi

Phản hồi của models.countTextTokens.

Phương thức này trả về tokenCount của mô hình cho prompt.

Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:

Số trường
tokenCount integer

Số lượng mã thông báo mà model tạo mã thông báo prompt.

Luôn luôn là số âm.

Biểu diễn dưới dạng JSON
{
  "tokenCount": integer
}

Phương thức: model.generateMessage

Tạo phản hồi từ mô hình khi có dữ liệu đầu vào MessagePrompt.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Tham số đường dẫn

model string

Bắt buộc. Tên của mô hình sẽ sử dụng.

Định dạng: name=models/{model}. Mã này có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Số trường
prompt object (MessagePrompt)

Bắt buộc. Dữ liệu đầu vào dạng văn bản có cấu trúc được cung cấp cho mô hình dưới dạng câu lệnh.

Khi đưa ra một câu lệnh, mô hình sẽ trả về nội dung dự đoán là thông báo tiếp theo trong cuộc thảo luận.

temperature number

Không bắt buộc. Kiểm soát độ ngẫu nhiên của dữ liệu đầu ra.

Các giá trị có thể dao động trên [0.0,1.0], tính cả hai giá trị đó. Giá trị gần 1.0 sẽ tạo ra các câu trả lời đa dạng hơn, trong khi giá trị gần 0.0 hơn thường sẽ mang lại các câu trả lời ít gây bất ngờ hơn từ mô hình.

candidateCount integer

Không bắt buộc. Số lượng tin nhắn phản hồi đã tạo cần trả về.

Giá trị này phải nằm trong khoảng từ [1, 8]. Nếu bạn không đặt chính sách này, giá trị mặc định sẽ là 1.

topP number

Không bắt buộc. Xác suất tích luỹ tối đa của mã thông báo cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Phương pháp lấy mẫu hạt nhân sẽ xem xét tập hợp mã thông báo nhỏ nhất có tổng xác suất ít nhất là topP.

topK integer

Không bắt buộc. Số lượng mã thông báo tối đa cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Tính năng lấy mẫu hàng đầu sẽ xem xét tập hợp topK mã thông báo có khả năng xuất hiện nhiều nhất.

Nội dung phản hồi

Phản hồi từ mô hình.

Dữ liệu này bao gồm cả tin nhắn của ứng viên và nhật ký trò chuyện dưới dạng tin nhắn theo thứ tự thời gian.

Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:

Số trường
candidates[] object (Message)

Thông báo phản hồi của ứng viên từ mô hình.

messages[] object (Message)

Nhật ký trò chuyện mà mô hình sử dụng.

filters[] object (ContentFilter)

Tập hợp siêu dữ liệu lọc nội dung cho văn bản câu lệnh và câu trả lời.

Cột này cho biết(những) SafetyCategory nào đã chặn một ứng cử viên khỏi câu trả lời này, HarmProbability thấp nhất kích hoạt việc chặn và chế độ cài đặt Ngưỡng gây hại cho danh mục đó.

Biểu diễn dưới dạng JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Phương thức: model.countMessageTokens

Chạy trình tạo mã thông báo của mô hình trên một chuỗi và trả về số lượng mã thông báo.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Tham số đường dẫn

model string

Bắt buộc. Tên tài nguyên của mô hình. Giá trị này đóng vai trò là mã nhận dạng cho Mô hình sử dụng.

Tên này phải khớp với tên mô hình được phương thức models.list trả về.

Định dạng: models/{model}. Định dạng này có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Số trường
prompt object (MessagePrompt)

Bắt buộc. Lời nhắc có số lượng mã thông báo sẽ được trả về.

Nội dung phản hồi

Phản hồi của models.countMessageTokens.

Phương thức này trả về tokenCount của mô hình cho prompt.

Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:

Số trường
tokenCount integer

Số lượng mã thông báo mà model tạo mã thông báo prompt.

Luôn luôn là số âm.

Biểu diễn dưới dạng JSON
{
  "tokenCount": integer
}

Phương thức: model.embedText

Tạo một mục nhúng từ mô hình dựa trên một thông báo đầu vào.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Tham số đường dẫn

model string

Bắt buộc. Tên mô hình để sử dụng với định dạng model=models/{model}. Mã này có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Số trường
text string

Không bắt buộc. Văn bản đầu vào dạng tự do mà mô hình sẽ chuyển thành dạng nhúng.

Nội dung phản hồi

Phản hồi cho EmbeddedTextRequest.

Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:

Số trường
embedding object (Embedding)

Chỉ có đầu ra. Nhúng được tạo từ văn bản đầu vào.

Biểu diễn dưới dạng JSON
{
  "embedding": {
    object (Embedding)
  }
}

Phương thức: model.batchEmbeddedText

Tạo nhiều mục nhúng từ mô hình mà văn bản đầu vào đã cho trong một lệnh gọi đồng bộ.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Tham số đường dẫn

model string

Bắt buộc. Tên của Model dùng để tạo mục nhúng. Ví dụ: mô hình/embedding-gecko-001 Có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Số trường
texts[] string

Không bắt buộc. Văn bản đầu vào dạng tự do mà mô hình sẽ chuyển thành dạng nhúng. Giới hạn hiện tại là 100 văn bản và sẽ có lỗi.

requests[] object (EmbedTextRequest)

Không bắt buộc. Các yêu cầu nhúng cho lô. Bạn chỉ có thể đặt một trong hai giá trị texts hoặc requests.

Nội dung phản hồi

Phản hồi cho EmbeddedTextRequest.

Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:

Số trường
embeddings[] object (Embedding)

Chỉ có đầu ra. Các mục nhúng được tạo từ văn bản đầu vào.

Biểu diễn dưới dạng JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Yêu cầu tải một văn bản nhúng từ mô hình.

Biểu diễn dưới dạng JSON
{
  "model": string,
  "text": string
}
Số trường
model string

Bắt buộc. Tên mô hình để sử dụng với định dạng model=models/{model}.

text string

Không bắt buộc. Văn bản đầu vào dạng tự do mà mô hình sẽ chuyển thành dạng nhúng.

Phương thức: TuningModels.generateText

Tạo phản hồi từ mô hình khi có thông báo đầu vào.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Tham số đường dẫn

model string

Bắt buộc. Tên của Model hoặc TunedModel dùng để tạo hoàn thành. Ví dụ: model/text-bison-001 TuningModels/sentence-translator-u3b7m Mã này có dạng tunedModels/{tunedmodel}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Số trường
prompt object (TextPrompt)

Bắt buộc. Văn bản đầu vào dạng tự do được cung cấp cho mô hình dưới dạng câu lệnh.

Khi đưa ra một câu lệnh, mô hình sẽ tạo một phản hồi TextCompletion (Hoàn thành văn bản) mà mô hình dự đoán khi hoàn tất văn bản nhập.

safetySettings[] object (SafetySetting)

Không bắt buộc. Danh sách các thực thể SafetySetting riêng biệt dùng để chặn nội dung không an toàn.

sẽ được thực thi trên GenerateTextRequest.promptGenerateTextResponse.candidates. Không được có nhiều hơn một chế độ cài đặt cho mỗi loại SafetyCategory. API này sẽ chặn mọi lời nhắc và phản hồi không đáp ứng ngưỡng do các chế độ cài đặt này đặt ra. Danh sách này ghi đè các chế độ cài đặt mặc định cho từng SafetyCategory được chỉ định trong phần safetySettings. Nếu không có SafetySetting cho một SafetyCategory nhất định được cung cấp trong danh sách, API sẽ sử dụng chế độ cài đặt an toàn mặc định cho danh mục đó. Danh mục gây hại HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICS, HARM_CATEGORY_DANGEROUS được hỗ trợ trong dịch vụ văn bản.

stopSequences[] string

Tập hợp các chuỗi ký tự (tối đa 5) sẽ ngừng tạo dữ liệu đầu ra. Nếu được chỉ định, API sẽ dừng ở lần xuất hiện đầu tiên của chuỗi dừng. Trình tự dừng sẽ không được đưa vào phản hồi.

temperature number

Không bắt buộc. Kiểm soát độ ngẫu nhiên của dữ liệu đầu ra. Lưu ý: Giá trị mặc định sẽ khác nhau tuỳ theo mô hình. Hãy xem thuộc tính Model.temperature của Model đã trả về hàm getModel.

Giá trị có thể nằm trong khoảng từ [0,0,1,0]. Giá trị gần 1.0 sẽ tạo ra các câu trả lời đa dạng và sáng tạo hơn, trong khi giá trị gần hơn 0 thường sẽ dẫn đến các câu trả lời đơn giản hơn từ mô hình.

candidateCount integer

Không bắt buộc. Số lượng câu trả lời đã tạo cần trả về.

Giá trị này phải nằm trong khoảng từ [1, 8]. Nếu bạn không đặt chính sách này, giá trị mặc định sẽ là 1.

maxOutputTokens integer

Không bắt buộc. Số lượng mã thông báo tối đa cần đưa vào một ứng viên.

Nếu bạn không đặt chính sách này, thì chế độ này sẽ mặc định là outputTokenLimit được chỉ định trong quy cách Model.

topP number

Không bắt buộc. Xác suất tích luỹ tối đa của mã thông báo cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Hệ thống sắp xếp các mã thông báo dựa trên xác suất đã chỉ định của chúng để chỉ xem xét những mã thông báo có nhiều khả năng nhất. Phương pháp lấy mẫu hàng đầu giới hạn trực tiếp số lượng mã thông báo tối đa cần xem xét, trong khi phương pháp lấy mẫu hạt nhân giới hạn số lượng mã thông báo dựa trên xác suất tích luỹ.

Lưu ý: Giá trị mặc định sẽ khác nhau tuỳ theo mô hình. Hãy xem thuộc tính Model.top_p của Model đã trả về hàm getModel.

topK integer

Không bắt buộc. Số lượng mã thông báo tối đa cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Tính năng lấy mẫu hàng đầu sẽ xem xét tập hợp topK mã thông báo có khả năng xuất hiện nhiều nhất. Giá trị mặc định là 40.

Lưu ý: Giá trị mặc định sẽ khác nhau tuỳ theo mô hình. Hãy xem thuộc tính Model.top_k của Model đã trả về hàm getModel.

Nội dung phản hồi

Nếu thành công, nội dung phản hồi sẽ chứa một phiên bản của GenerateTextResponse.

ContentFilter

Siêu dữ liệu lọc nội dung được liên kết với việc xử lý một yêu cầu duy nhất.

ContentFilter chứa lý do và chuỗi hỗ trợ không bắt buộc. Có thể chưa xác định được lý do.

Biểu diễn dưới dạng JSON
{
  "reason": enum (BlockedReason),
  "message": string
}
Số trường
reason enum (BlockedReason)

Lý do khiến nội dung bị chặn trong quá trình xử lý yêu cầu.

message string

Chuỗi mô tả chi tiết hơn về hoạt động lọc.

BlockedReason

Danh sách các lý do có thể khiến nội dung bị chặn.

Enum
BLOCKED_REASON_UNSPECIFIED Bạn chưa xác định lý do bị chặn.
SAFETY Nội dung đã bị chặn do chế độ cài đặt an toàn.
OTHER Nội dung đã bị chặn nhưng lý do chưa được phân loại.

Nhúng

Danh sách số thực có độ chính xác đơn đại diện cho việc nhúng.

Biểu diễn dưới dạng JSON
{
  "value": [
    number
  ]
}
Số trường
value[] number

Các giá trị nhúng.

Thông điệp

Đơn vị cơ sở của văn bản có cấu trúc.

Message bao gồm authorcontent của Message.

author dùng để gắn thẻ thông báo khi các thông báo đó được gửi tới mô hình dưới dạng văn bản.

Biểu diễn dưới dạng JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Số trường
author string

Không bắt buộc. Tác giả của Thư này.

Đây là chìa khoá để gắn thẻ nội dung của Thông báo này khi nó được cấp vào mô hình dưới dạng văn bản.

Tác giả có thể là bất kỳ chuỗi chữ-số nào.

content string

Bắt buộc. Nội dung văn bản của Message có cấu trúc.

citationMetadata object (CitationMetadata)

Chỉ có đầu ra. Thông tin trích dẫn cho content do mô hình tạo trong Message này.

Nếu Message này được tạo làm dữ liệu đầu ra của mô hình, thì bạn có thể điền thông tin thuộc tính vào trường này cho mọi văn bản có trong content. Trường này chỉ được dùng cho dữ liệu đầu ra.

MessagePrompt

Tất cả văn bản nhập có cấu trúc được truyền đến mô hình dưới dạng câu lệnh.

MessagePrompt chứa một tập hợp các trường có cấu trúc cung cấp ngữ cảnh cho cuộc trò chuyện, ví dụ về các cặp thông báo đầu ra của người dùng/mô hình để mô hình này phản hồi theo nhiều cách, và nhật ký trò chuyện hoặc danh sách các thông báo thể hiện lượt trò chuyện luân phiên giữa người dùng và mô hình.

Biểu diễn dưới dạng JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
Số trường
context string

Không bắt buộc. Văn bản phải được cung cấp cho mô hình trước tiên để làm căn cứ cho câu trả lời.

Nếu bạn không để trống, context này sẽ được cấp cho mô hình trước tiên trước examplesmessages. Khi sử dụng context, hãy nhớ cung cấp mã này trong mọi yêu cầu để duy trì tính liên tục.

Trường này có thể là nội dung mô tả câu lệnh của bạn dành cho mô hình để giúp cung cấp bối cảnh và định hướng câu trả lời. Ví dụ: "Dịch cụm từ từ tiếng Anh sang tiếng Pháp". hoặc "Đưa ra một tuyên bố, phân loại tình cảm là vui, buồn hoặc trung lập".

Mọi nội dung trong trường này sẽ được ưu tiên so với nhật ký tin nhắn nếu tổng kích thước nhập vượt quá inputTokenLimit của mô hình và yêu cầu nhập bị cắt bớt.

examples[] object (Example)

Không bắt buộc. Ví dụ về nội dung mà mô hình sẽ tạo.

Dữ liệu này bao gồm cả hoạt động đầu vào của người dùng và phản hồi mà mô hình sẽ mô phỏng.

Các examples này được xử lý giống với tin nhắn hội thoại, ngoại trừ việc chúng được ưu tiên hơn lịch sử trong messages: Nếu tổng kích thước nhập vượt quá inputTokenLimit của mô hình thì dữ liệu đầu vào sẽ bị cắt bớt. Các mặt hàng sẽ bị xoá khỏi messages trước ngày examples.

messages[] object (Message)

Bắt buộc. Thông tin tổng quan nhanh về nhật ký cuộc trò chuyện gần đây được sắp xếp theo trình tự thời gian.

Chuyển đổi giữa hai tác giả.

Nếu tổng kích thước đầu vào vượt quá inputTokenLimit của mô hình, thì dữ liệu đầu vào sẽ bị cắt bớt: Các mục cũ nhất sẽ bị loại bỏ khỏi messages.

Ví dụ:

Một ví dụ về đầu vào/đầu ra dùng để hướng dẫn Mô hình.

Biểu đồ này cho biết cách mô hình sẽ phản hồi hoặc định dạng phản hồi.

Biểu diễn dưới dạng JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
Số trường
input object (Message)

Bắt buộc. Ví dụ về dữ liệu đầu vào Message từ người dùng.

output object (Message)

Bắt buộc. Ví dụ về dữ liệu mà mô hình sẽ xuất dữ liệu đầu vào.

GenerateTextResponse

Phản hồi từ mô hình, bao gồm cả các đề xuất hoàn thành.

Biểu diễn dưới dạng JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
Số trường
candidates[] object (TextCompletion)

Các câu trả lời của ứng viên trong mô hình.

filters[] object (ContentFilter)

Tập hợp siêu dữ liệu lọc nội dung cho văn bản câu lệnh và câu trả lời.

Cột này cho biết(những) SafetyCategory nào đã chặn một ứng cử viên khỏi câu trả lời này, HarmProbability thấp nhất kích hoạt việc chặn và chế độ cài đặt Ngưỡng gây hại cho danh mục đó. Điều này cho biết thay đổi nhỏ nhất đối với SafetySettings cần thiết để bỏ chặn ít nhất 1 phản hồi.

Tính năng chặn được định cấu hình bởi SafetySettings trong yêu cầu (hoặc SafetySettings mặc định của API).

safetyFeedback[] object (SafetyFeedback)

Trả về mọi ý kiến phản hồi về sự an toàn liên quan đến tính năng lọc nội dung.

TextCompletion

Văn bản đầu ra được trả về từ mô hình.

Biểu diễn dưới dạng JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Số trường
output string

Chỉ có đầu ra. Văn bản đã tạo được trả về từ mô hình.

safetyRatings[] object (SafetyRating)

Điểm xếp hạng về độ an toàn của câu trả lời.

Mỗi danh mục có tối đa một điểm xếp hạng.

citationMetadata object (CitationMetadata)

Chỉ có đầu ra. Thông tin trích dẫn cho output do mô hình tạo trong TextCompletion này.

Trường này có thể được điền sẵn thông tin ghi công cho bất kỳ văn bản nào có trong output.

SafetyFeedback

Ý kiến phản hồi về sự an toàn cho toàn bộ yêu cầu.

Trường này được điền sẵn nếu nội dung trong dữ liệu nhập và/hoặc phản hồi bị chặn do chế độ cài đặt an toàn. Có thể không phải trường hợp SafetyFeedback nào cũng có cho mọi HarmCategory. Mỗi Phản hồi an toàn sẽ trả về các chế độ cài đặt an toàn mà yêu cầu sử dụng cũng như khả năng gây hại thấp nhất được phép để trả về kết quả.

Biểu diễn dưới dạng JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
Số trường
rating object (SafetyRating)

Điểm xếp hạng an toàn được đánh giá dựa trên nội dung.

setting object (SafetySetting)

Đã áp dụng các chế độ cài đặt an toàn cho yêu cầu.

TextPrompt

Văn bản được cung cấp cho mô hình dưới dạng câu lệnh.

Mô hình sẽ sử dụng TextPrompt này để tạo văn bản hoàn thành.

Biểu diễn dưới dạng JSON
{
  "text": string
}
Số trường
text string

Bắt buộc. Nội dung câu lệnh.