PaLM (decommissioned)

Phương thức: models.generateText

Tạo phản hồi từ mô hình dựa trên một thông báo đầu vào.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

URL sử dụng cú pháp Chuyển mã gRPC.

Tham số đường dẫn

model string

Bắt buộc. Tên của Model hoặc TunedModel để sử dụng cho việc tạo thao tác hoàn tất. Ví dụ: models/text-bison-001 tunedModels/sentence-translator-u3b7m Tệp này có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Trường
prompt object (TextPrompt)

Bắt buộc. Văn bản đầu vào dạng tự do được cung cấp cho mô hình dưới dạng câu lệnh.

Khi nhận được một câu lệnh, mô hình sẽ tạo ra một phản hồi TextCompletion mà mô hình dự đoán là phần hoàn chỉnh của văn bản đầu vào.

safetySettings[] object (SafetySetting)

Không bắt buộc. Danh sách các thực thể SafetySetting riêng biệt để chặn nội dung không an toàn.

sẽ được thực thi trên GenerateTextRequest.promptGenerateTextResponse.candidates. Không được có nhiều chế độ cài đặt cho mỗi loại SafetyCategory. API sẽ chặn mọi lời nhắc và phản hồi không đáp ứng các ngưỡng do các chế độ cài đặt này đặt ra. Danh sách này ghi đè chế độ cài đặt mặc định cho mỗi SafetyCategory được chỉ định trong safetySettings. Nếu không có SafetySetting cho một SafetyCategory nhất định được cung cấp trong danh sách, thì API sẽ sử dụng chế độ cài đặt an toàn mặc định cho danh mục đó. Các danh mục gây hại HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS được hỗ trợ trong dịch vụ văn bản.

stopSequences[] string

Tập hợp các trình tự ký tự (tối đa 5) sẽ dừng quá trình tạo đầu ra. Nếu được chỉ định, API sẽ dừng tại lần xuất hiện đầu tiên của trình tự dừng. Trình tự dừng sẽ không được đưa vào phản hồi.

temperature number

Không bắt buộc. Kiểm soát tính ngẫu nhiên của kết quả. Lưu ý: Giá trị mặc định thay đổi tuỳ theo mẫu, hãy xem thuộc tính Model.temperature của Model đã trả về hàm getModel.

Giá trị có thể nằm trong khoảng [0,1]. Giá trị gần với 1.0 sẽ tạo ra các câu trả lời đa dạng và sáng tạo hơn, trong khi giá trị gần với 0.0 thường sẽ dẫn đến các câu trả lời đơn giản hơn từ mô hình.

candidateCount integer

Không bắt buộc. Số lượng câu trả lời được tạo để trả về.

Giá trị này phải nằm trong khoảng từ 1 đến 8, bao gồm cả hai giá trị này. Nếu bạn không đặt, giá trị này sẽ mặc định là 1.

maxOutputTokens integer

Không bắt buộc. Số lượng mã thông báo tối đa để đưa vào một đề xuất.

Nếu bạn không đặt, giá trị này sẽ mặc định là outputTokenLimit được chỉ định trong thông số kỹ thuật Model.

topP number

Không bắt buộc. Xác suất tích luỹ tối đa của mã thông báo cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Các mã thông báo được sắp xếp dựa trên xác suất được chỉ định để chỉ những mã thông báo có nhiều khả năng nhất mới được xem xét. Phương pháp lấy mẫu Top-k trực tiếp giới hạn số lượng mã thông báo tối đa cần xem xét, trong khi phương pháp lấy mẫu Nucleus giới hạn số lượng mã thông báo dựa trên xác suất tích luỹ.

Lưu ý: Giá trị mặc định thay đổi tuỳ theo mẫu, hãy xem thuộc tính Model.top_p của Model đã trả về hàm getModel.

topK integer

Không bắt buộc. Số lượng mã thông báo tối đa cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Tính năng lấy mẫu Top-k xem xét tập hợp các mã thông báo topK có nhiều khả năng nhất. Giá trị mặc định là 40.

Lưu ý: Giá trị mặc định thay đổi tuỳ theo mẫu, hãy xem thuộc tính Model.top_k của Model đã trả về hàm getModel.

Nội dung phản hồi

Nếu thành công, nội dung phản hồi sẽ chứa một phiên bản của GenerateTextResponse.

Phương thức: models.countTextTokens

Chạy trình tạo mã thông báo của mô hình trên một văn bản và trả về số lượng mã thông báo.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

URL sử dụng cú pháp Chuyển mã gRPC.

Tham số đường dẫn

model string

Bắt buộc. Tên tài nguyên của mô hình. Đây là mã nhận dạng để Mô hình sử dụng.

Tên này phải khớp với tên mô hình do phương thức models.list trả về.

Định dạng: models/{model} Có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Trường
prompt object (TextPrompt)

Bắt buộc. Văn bản đầu vào dạng tự do được cung cấp cho mô hình dưới dạng câu lệnh.

Nội dung phản hồi

Phản hồi từ models.countTextTokens.

Hàm này trả về tokenCount của mô hình cho prompt.

Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:

Trường
tokenCount integer

Số lượng mã thông báo mà model mã hoá prompt thành.

Luôn không âm.

Biểu diễn dưới dạng JSON
{
  "tokenCount": integer
}

Phương thức: models.generateMessage

Tạo phản hồi từ mô hình dựa trên dữ liệu đầu vào MessagePrompt.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

URL sử dụng cú pháp Chuyển mã gRPC.

Tham số đường dẫn

model string

Bắt buộc. Tên của mô hình cần sử dụng.

Định dạng: name=models/{model}. Phương thức này có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Trường
prompt object (MessagePrompt)

Bắt buộc. Dữ liệu đầu vào văn bản có cấu trúc được cung cấp cho mô hình dưới dạng câu lệnh.

Khi nhận được câu lệnh, mô hình sẽ trả về nội dung mà mô hình dự đoán là tin nhắn tiếp theo trong cuộc thảo luận.

temperature number

Không bắt buộc. Kiểm soát tính ngẫu nhiên của kết quả.

Giá trị có thể nằm trong khoảng từ [0.0,1.0] trở lên. Giá trị gần với 1.0 sẽ tạo ra các câu trả lời đa dạng hơn, trong khi giá trị gần với 0.0 thường sẽ dẫn đến các câu trả lời ít bất ngờ hơn từ mô hình.

candidateCount integer

Không bắt buộc. Số lượng tin nhắn phản hồi được tạo để trả về.

Giá trị này phải nằm trong khoảng từ [1, 8]. Nếu bạn không đặt, giá trị mặc định sẽ là 1.

topP number

Không bắt buộc. Xác suất tích luỹ tối đa của mã thông báo cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Tính năng lấy mẫu hạt nhân xem xét tập hợp mã thông báo nhỏ nhất có tổng xác suất ít nhất là topP.

topK integer

Không bắt buộc. Số lượng mã thông báo tối đa cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Tính năng lấy mẫu Top-k xem xét tập hợp các mã thông báo topK có nhiều khả năng nhất.

Nội dung phản hồi

Phản hồi từ mô hình.

Dữ liệu này bao gồm cả tin nhắn đề xuất và nhật ký trò chuyện ở dạng tin nhắn được sắp xếp theo thứ tự thời gian.

Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:

Trường
candidates[] object (Message)

Thông báo phản hồi đề xuất từ mô hình.

messages[] object (Message)

Nhật ký trò chuyện mà mô hình sử dụng.

filters[] object (ContentFilter)

Một tập hợp siêu dữ liệu lọc nội dung cho câu lệnh và văn bản phản hồi.

Thông tin này cho biết(các) SafetyCategory nào đã chặn một đề xuất khỏi phản hồi này, HarmProbability thấp nhất đã kích hoạt lệnh chặn và chế độ cài đặt HarmThreshold cho danh mục đó.

Biểu diễn dưới dạng JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Phương thức: models.countMessageTokens

Chạy trình tạo mã thông báo của mô hình trên một chuỗi và trả về số lượng mã thông báo.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

URL sử dụng cú pháp Chuyển mã gRPC.

Tham số đường dẫn

model string

Bắt buộc. Tên tài nguyên của mô hình. Đây là mã nhận dạng để Mô hình sử dụng.

Tên này phải khớp với tên mô hình do phương thức models.list trả về.

Định dạng: models/{model} Có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Trường
prompt object (MessagePrompt)

Bắt buộc. Lời nhắc có số lượng mã thông báo sẽ được trả về.

Nội dung phản hồi

Phản hồi từ models.countMessageTokens.

Hàm này trả về tokenCount của mô hình cho prompt.

Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:

Trường
tokenCount integer

Số lượng mã thông báo mà model mã hoá prompt thành.

Luôn không âm.

Biểu diễn dưới dạng JSON
{
  "tokenCount": integer
}

Phương thức: models.embedText

Tạo một nội dung nhúng từ mô hình dựa trên một thông báo đầu vào.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

URL sử dụng cú pháp Chuyển mã gRPC.

Tham số đường dẫn

model string

Bắt buộc. Tên mô hình cần sử dụng với định dạng model=models/{model}. Phương thức này có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Trường
text string

Không bắt buộc. Văn bản đầu vào dạng tự do mà mô hình sẽ chuyển thành một nội dung nhúng.

Nội dung phản hồi

Phản hồi cho một EmbedTextRequest.

Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:

Trường
embedding object (Embedding)

Chỉ có đầu ra. Nội dung nhúng được tạo từ văn bản đầu vào.

Biểu diễn dưới dạng JSON
{
  "embedding": {
    object (Embedding)
  }
}

Phương thức: models.batchEmbedText

Tạo nhiều nội dung nhúng từ mô hình đã cho văn bản đầu vào trong lệnh gọi đồng bộ.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

URL sử dụng cú pháp Chuyển mã gRPC.

Tham số đường dẫn

model string

Bắt buộc. Tên của Model để sử dụng cho việc tạo nội dung nhúng. Ví dụ: models/embedding-gecko-001 Tệp này có dạng models/{model}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Trường
texts[] string

Không bắt buộc. Văn bản đầu vào dạng tự do mà mô hình sẽ chuyển thành một nội dung nhúng. Giới hạn hiện tại là 100 văn bản, nếu vượt quá giới hạn này thì sẽ có lỗi.

requests[] object (EmbedTextRequest)

Không bắt buộc. Nhúng các yêu cầu cho lô. Bạn chỉ có thể đặt một trong hai giá trị texts hoặc requests.

Nội dung phản hồi

Phản hồi cho một EmbedTextRequest.

Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:

Trường
embeddings[] object (Embedding)

Chỉ có đầu ra. Các nội dung nhúng được tạo từ văn bản đầu vào.

Biểu diễn dưới dạng JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Yêu cầu lấy văn bản nhúng từ mô hình.

Trường
model string

Bắt buộc. Tên mô hình cần sử dụng với định dạng model=models/{model}.

text string

Không bắt buộc. Văn bản đầu vào dạng tự do mà mô hình sẽ chuyển thành một nội dung nhúng.

Biểu diễn dưới dạng JSON
{
  "model": string,
  "text": string
}

Phương thức: tunedModels.generateText

Tạo phản hồi từ mô hình dựa trên một thông báo đầu vào.

Điểm cuối

bài đăng https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

URL sử dụng cú pháp Chuyển mã gRPC.

Tham số đường dẫn

model string

Bắt buộc. Tên của Model hoặc TunedModel để sử dụng cho việc tạo thao tác hoàn tất. Ví dụ: models/text-bison-001 tunedModels/sentence-translator-u3b7m Tệp này có dạng tunedModels/{tunedmodel}.

Nội dung yêu cầu

Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:

Trường
prompt object (TextPrompt)

Bắt buộc. Văn bản đầu vào dạng tự do được cung cấp cho mô hình dưới dạng câu lệnh.

Khi nhận được một câu lệnh, mô hình sẽ tạo ra một phản hồi TextCompletion mà mô hình dự đoán là phần hoàn chỉnh của văn bản đầu vào.

safetySettings[] object (SafetySetting)

Không bắt buộc. Danh sách các thực thể SafetySetting riêng biệt để chặn nội dung không an toàn.

sẽ được thực thi trên GenerateTextRequest.promptGenerateTextResponse.candidates. Không được có nhiều chế độ cài đặt cho mỗi loại SafetyCategory. API sẽ chặn mọi lời nhắc và phản hồi không đáp ứng các ngưỡng do các chế độ cài đặt này đặt ra. Danh sách này ghi đè chế độ cài đặt mặc định cho mỗi SafetyCategory được chỉ định trong safetySettings. Nếu không có SafetySetting cho một SafetyCategory nhất định được cung cấp trong danh sách, thì API sẽ sử dụng chế độ cài đặt an toàn mặc định cho danh mục đó. Các danh mục gây hại HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS được hỗ trợ trong dịch vụ văn bản.

stopSequences[] string

Tập hợp các trình tự ký tự (tối đa 5) sẽ dừng quá trình tạo đầu ra. Nếu được chỉ định, API sẽ dừng tại lần xuất hiện đầu tiên của trình tự dừng. Trình tự dừng sẽ không được đưa vào phản hồi.

temperature number

Không bắt buộc. Kiểm soát tính ngẫu nhiên của kết quả. Lưu ý: Giá trị mặc định thay đổi tuỳ theo mẫu, hãy xem thuộc tính Model.temperature của Model đã trả về hàm getModel.

Giá trị có thể nằm trong khoảng [0,1]. Giá trị gần với 1.0 sẽ tạo ra các câu trả lời đa dạng và sáng tạo hơn, trong khi giá trị gần với 0.0 thường sẽ dẫn đến các câu trả lời đơn giản hơn từ mô hình.

candidateCount integer

Không bắt buộc. Số lượng câu trả lời được tạo để trả về.

Giá trị này phải nằm trong khoảng từ 1 đến 8, bao gồm cả hai giá trị này. Nếu bạn không đặt, giá trị này sẽ mặc định là 1.

maxOutputTokens integer

Không bắt buộc. Số lượng mã thông báo tối đa để đưa vào một đề xuất.

Nếu bạn không đặt, giá trị này sẽ mặc định là outputTokenLimit được chỉ định trong thông số kỹ thuật Model.

topP number

Không bắt buộc. Xác suất tích luỹ tối đa của mã thông báo cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Các mã thông báo được sắp xếp dựa trên xác suất được chỉ định để chỉ những mã thông báo có nhiều khả năng nhất mới được xem xét. Phương pháp lấy mẫu Top-k trực tiếp giới hạn số lượng mã thông báo tối đa cần xem xét, trong khi phương pháp lấy mẫu Nucleus giới hạn số lượng mã thông báo dựa trên xác suất tích luỹ.

Lưu ý: Giá trị mặc định thay đổi tuỳ theo mẫu, hãy xem thuộc tính Model.top_p của Model đã trả về hàm getModel.

topK integer

Không bắt buộc. Số lượng mã thông báo tối đa cần xem xét khi lấy mẫu.

Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.

Tính năng lấy mẫu Top-k xem xét tập hợp các mã thông báo topK có nhiều khả năng nhất. Giá trị mặc định là 40.

Lưu ý: Giá trị mặc định thay đổi tuỳ theo mẫu, hãy xem thuộc tính Model.top_k của Model đã trả về hàm getModel.

Nội dung phản hồi

Nếu thành công, nội dung phản hồi sẽ chứa một phiên bản của GenerateTextResponse.

ContentFilter

Siêu dữ liệu lọc nội dung liên kết với việc xử lý một yêu cầu.

ContentFilter chứa một lý do và một chuỗi hỗ trợ không bắt buộc. Lý do có thể không được chỉ định.

Trường
reason enum (BlockedReason)

Lý do nội dung bị chặn trong quá trình xử lý yêu cầu.

message string

Một chuỗi mô tả chi tiết hơn về hành vi lọc.

Biểu diễn dưới dạng JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

Danh sách các lý do có thể khiến nội dung bị chặn.

Enum
BLOCKED_REASON_UNSPECIFIED Chưa chỉ định lý do chặn.
SAFETY Nội dung đã bị chặn theo chế độ cài đặt an toàn.
OTHER Nội dung đã bị chặn nhưng lý do chưa được phân loại.

Nhúng

Danh sách các số thực đại diện cho phần nhúng.

Trường
value[] number

Các giá trị nhúng.

Biểu diễn dưới dạng JSON
{
  "value": [
    number
  ]
}

Thông điệp

Đơn vị cơ sở của văn bản có cấu trúc.

Message bao gồm authorcontent của Message.

author được dùng để gắn thẻ tin nhắn khi các tin nhắn đó được đưa vào mô hình dưới dạng văn bản.

Trường
author string

Không bắt buộc. Tác giả của Thông báo này.

Đây là khoá để gắn thẻ nội dung của Tin nhắn này khi được đưa vào mô hình dưới dạng văn bản.

Tác giả có thể là bất kỳ chuỗi chữ và số nào.

content string

Bắt buộc. Nội dung văn bản của Message có cấu trúc.

citationMetadata object (CitationMetadata)

Chỉ có đầu ra. Thông tin trích dẫn cho content do mô hình tạo trong Message này.

Nếu Message này được tạo dưới dạng đầu ra từ mô hình, thì trường này có thể được điền thông tin phân bổ cho mọi văn bản có trong content. Trường này chỉ được dùng trên đầu ra.

Biểu diễn dưới dạng JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

Tất cả văn bản đầu vào có cấu trúc được truyền vào mô hình dưới dạng lời nhắc.

MessagePrompt chứa một tập hợp các trường có cấu trúc cung cấp ngữ cảnh cho cuộc trò chuyện, ví dụ về các cặp tin nhắn đầu vào của người dùng/đầu ra của mô hình giúp mô hình phản hồi theo nhiều cách, cũng như nhật ký trò chuyện hoặc danh sách tin nhắn thể hiện các lượt trò chuyện luân phiên giữa người dùng và mô hình.

Trường
context string

Không bắt buộc. Văn bản cần được cung cấp cho mô hình trước tiên để làm cơ sở cho phản hồi.

Nếu không trống, context này sẽ được cung cấp cho mô hình trước examplesmessages. Khi sử dụng context, hãy nhớ cung cấp cho context mọi yêu cầu để duy trì tính liên tục.

Trường này có thể là nội dung mô tả câu lệnh của bạn cho mô hình để giúp cung cấp ngữ cảnh và hướng dẫn câu trả lời. Ví dụ: "Dịch cụm từ từ tiếng Anh sang tiếng Pháp" hoặc "Đối với một câu nhận định, hãy phân loại cảm xúc là vui, buồn hoặc trung tính".

Mọi nội dung có trong trường này sẽ được ưu tiên hơn nhật ký tin nhắn nếu tổng kích thước đầu vào vượt quá inputTokenLimit của mô hình và yêu cầu đầu vào bị cắt bớt.

examples[] object (Example)

Không bắt buộc. Ví dụ về nội dung mà mô hình sẽ tạo.

Dữ liệu này bao gồm cả dữ liệu đầu vào của người dùng và phản hồi mà mô hình sẽ mô phỏng.

Các examples này được xử lý giống như các tin nhắn trò chuyện, ngoại trừ việc chúng được ưu tiên hơn nhật ký trong messages: Nếu tổng kích thước đầu vào vượt quá inputTokenLimit của mô hình, thì đầu vào sẽ bị cắt bớt. Các mục sẽ bị xoá khỏi messages trước examples.

messages[] object (Message)

Bắt buộc. Thông tin tổng quan nhanh về nhật ký cuộc trò chuyện gần đây, được sắp xếp theo thứ tự thời gian.

Lượt thay phiên giữa hai tác giả.

Nếu tổng kích thước đầu vào vượt quá inputTokenLimit của mô hình, thì đầu vào sẽ bị cắt bớt: Các mục cũ nhất sẽ bị xoá khỏi messages.

Biểu diễn dưới dạng JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Ví dụ:

Ví dụ về đầu vào/đầu ra dùng để hướng dẫn Mô hình.

Phương thức này minh hoạ cách mô hình phản hồi hoặc định dạng phản hồi.

Trường
input object (Message)

Bắt buộc. Ví dụ về Message đầu vào từ người dùng.

output object (Message)

Bắt buộc. Ví dụ về kết quả đầu ra của mô hình khi có dữ liệu đầu vào.

Biểu diễn dưới dạng JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

Phản hồi từ mô hình, bao gồm cả các đề xuất hoàn thành.

Trường
candidates[] object (TextCompletion)

Câu trả lời đề xuất của mô hình.

filters[] object (ContentFilter)

Một tập hợp siêu dữ liệu lọc nội dung cho câu lệnh và văn bản phản hồi.

Thông tin này cho biết(các) SafetyCategory nào đã chặn một đề xuất khỏi phản hồi này, HarmProbability thấp nhất đã kích hoạt lệnh chặn và chế độ cài đặt HarmThreshold cho danh mục đó. Điều này cho biết thay đổi nhỏ nhất đối với SafetySettings cần thiết để bỏ chặn ít nhất 1 phản hồi.

Thao tác chặn được định cấu hình bởi SafetySettings trong yêu cầu (hoặc SafetySettings mặc định của API).

safetyFeedback[] object (SafetyFeedback)

Trả về mọi ý kiến phản hồi liên quan đến vấn đề an toàn trong việc lọc nội dung.

Biểu diễn dưới dạng JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Văn bản đầu ra được trả về từ một mô hình.

Trường
output string

Chỉ có đầu ra. Văn bản được tạo được trả về từ mô hình.

safetyRatings[] object (SafetyRating)

Điểm xếp hạng mức độ an toàn của câu trả lời.

Mỗi danh mục chỉ có tối đa một mức phân loại.

citationMetadata object (CitationMetadata)

Chỉ có đầu ra. Thông tin trích dẫn cho output do mô hình tạo trong TextCompletion này.

Trường này có thể được điền thông tin phân bổ cho bất kỳ văn bản nào có trong output.

Biểu diễn dưới dạng JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

Ý kiến phản hồi về sự an toàn cho toàn bộ yêu cầu.

Trường này sẽ được điền nếu nội dung trong dữ liệu đầu vào và/hoặc phản hồi bị chặn do chế độ cài đặt an toàn. SafetyFeedback có thể không tồn tại cho một số HarmCategory. Mỗi SafetyFeedback sẽ trả về các chế độ cài đặt an toàn mà yêu cầu sử dụng cũng như HarmProbability thấp nhất được phép để trả về kết quả.

Trường
rating object (SafetyRating)

Mức phân loại an toàn được đánh giá từ nội dung.

setting object (SafetySetting)

Chế độ cài đặt an toàn đã được áp dụng cho yêu cầu.

Biểu diễn dưới dạng JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Văn bản được cung cấp cho mô hình dưới dạng lời nhắc.

Mô hình sẽ sử dụng TextPrompt này để Tạo văn bản hoàn chỉnh.

Trường
text string

Bắt buộc. Văn bản lời nhắc.

Biểu diễn dưới dạng JSON
{
  "text": string
}