Phương thức: model.generateText
Tạo phản hồi từ mô hình khi có thông báo đầu vào.
Điểm cuối
đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextTham số đường dẫn
model
string
Bắt buộc. Tên của Model
hoặc TunedModel
để sử dụng cho việc tạo thao tác hoàn tất. Ví dụ: models/text-bison-001 tunedModels/sentence-translator-u3b7m Tệp này có dạng models/{model}
.
Nội dung yêu cầu
Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:
prompt
object (TextPrompt
)
Bắt buộc. Văn bản đầu vào dạng tự do được cung cấp cho mô hình dưới dạng câu lệnh.
Khi đưa ra một câu lệnh, mô hình sẽ tạo một phản hồi TextCompletion (Hoàn thành văn bản) mà mô hình dự đoán khi hoàn tất văn bản nhập.
safetySettings[]
object (SafetySetting
)
Không bắt buộc. Danh sách các thực thể SafetySetting
riêng biệt để chặn nội dung không an toàn.
sẽ được thực thi trên GenerateTextRequest.prompt
và GenerateTextResponse.candidates
. Không được có nhiều hơn một chế độ cài đặt cho mỗi loại SafetyCategory
. API sẽ chặn mọi lời nhắc và phản hồi không đáp ứng các ngưỡng do các chế độ cài đặt này đặt ra. Danh sách này ghi đè chế độ cài đặt mặc định cho mỗi SafetyCategory
được chỉ định trong safetySettings. Nếu không có SafetySetting
cho một SafetyCategory
nhất định được cung cấp trong danh sách, thì API sẽ sử dụng chế độ cài đặt an toàn mặc định cho danh mục đó. Danh mục gây hại HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICS, HARM_CATEGORY_DANGEROUS được hỗ trợ trong dịch vụ văn bản.
stopSequences[]
string
Tập hợp các chuỗi ký tự (tối đa 5) sẽ ngừng tạo dữ liệu đầu ra. Nếu được chỉ định, API sẽ dừng tại lần xuất hiện đầu tiên của trình tự dừng. Trình tự dừng sẽ không được đưa vào phản hồi.
temperature
number
Không bắt buộc. Kiểm soát độ ngẫu nhiên của dữ liệu đầu ra. Lưu ý: Giá trị mặc định sẽ khác nhau tuỳ theo mô hình. Hãy xem thuộc tính Model.temperature
của Model
đã trả về hàm getModel
.
Giá trị có thể nằm trong khoảng từ [0,0,1,0]. Giá trị gần với 1.0 sẽ tạo ra các câu trả lời đa dạng và sáng tạo hơn, trong khi giá trị gần với 0.0 thường sẽ dẫn đến các câu trả lời đơn giản hơn từ mô hình.
candidateCount
integer
Không bắt buộc. Số lượng câu trả lời đã tạo cần trả về.
Giá trị này phải nằm trong khoảng từ 1 đến 8, bao gồm cả hai giá trị này. Nếu bạn không đặt giá trị, giá trị mặc định sẽ là 1.
maxOutputTokens
integer
Không bắt buộc. Số lượng mã thông báo tối đa để đưa vào một đề xuất.
Nếu bạn không đặt chính sách này, thì chế độ này sẽ mặc định là outputTokenLimit được chỉ định trong thông số kỹ thuật Model
.
topP
number
Không bắt buộc. Xác suất tích luỹ tối đa của mã thông báo cần xem xét khi lấy mẫu.
Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.
Hệ thống sắp xếp các mã thông báo dựa trên xác suất đã chỉ định của chúng để chỉ xem xét những mã thông báo có nhiều khả năng nhất. Phương pháp lấy mẫu Top-k trực tiếp giới hạn số lượng mã thông báo tối đa cần xem xét, trong khi phương pháp lấy mẫu Nucleus giới hạn số lượng mã thông báo dựa trên xác suất tích luỹ.
Lưu ý: Giá trị mặc định thay đổi tuỳ theo mẫu, hãy xem thuộc tính Model.top_p
của Model
đã trả về hàm getModel
.
topK
integer
Không bắt buộc. Số lượng mã thông báo tối đa cần xem xét khi lấy mẫu.
Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.
Phương pháp lấy mẫu hàng đầu sẽ xem xét tập hợp topK
mã thông báo có khả năng có nhiều nhất. Giá trị mặc định là 40.
Lưu ý: Giá trị mặc định sẽ khác nhau tuỳ theo mô hình. Hãy xem thuộc tính Model.top_k
của Model
đã trả về hàm getModel
.
Nội dung phản hồi
Nếu thành công, nội dung phản hồi sẽ chứa một phiên bản của GenerateTextResponse
.
Phương thức: model.countTextTokens
Chạy trình tạo mã thông báo của mô hình trên một văn bản và trả về số lượng mã thông báo.
Điểm cuối
bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensTham số đường dẫn
model
string
Bắt buộc. Tên tài nguyên của mô hình. Đây là mã nhận dạng để Mô hình sử dụng.
Tên này phải khớp với tên mô hình được phương thức models.list
trả về.
Định dạng: models/{model}
. Định dạng này có dạng models/{model}
.
Nội dung yêu cầu
Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:
prompt
object (TextPrompt
)
Bắt buộc. Văn bản đầu vào dạng tự do được cung cấp cho mô hình dưới dạng câu lệnh.
Nội dung phản hồi
Phản hồi của models.countTextTokens
.
Phương thức này trả về tokenCount
của mô hình cho prompt
.
Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:
tokenCount
integer
Số lượng mã thông báo mà model
tạo mã thông báo prompt
.
Luôn luôn là số âm.
Biểu diễn dưới dạng JSON |
---|
{ "tokenCount": integer } |
Phương thức: models.generateMessage
Tạo phản hồi từ mô hình dựa trên dữ liệu đầu vào MessagePrompt
.
Điểm cuối
bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageTham số đường dẫn
model
string
Bắt buộc. Tên của mô hình cần sử dụng.
Định dạng: name=models/{model}
. Mã này có dạng models/{model}
.
Nội dung yêu cầu
Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:
prompt
object (MessagePrompt
)
Bắt buộc. Dữ liệu đầu vào dạng văn bản có cấu trúc được cung cấp cho mô hình dưới dạng câu lệnh.
Khi đưa ra một câu lệnh, mô hình sẽ trả về nội dung dự đoán là thông báo tiếp theo trong cuộc thảo luận.
temperature
number
Không bắt buộc. Kiểm soát tính ngẫu nhiên của kết quả.
Các giá trị có thể dao động trên [0.0,1.0]
, tính cả hai giá trị đó. Giá trị gần với 1.0
sẽ tạo ra các phản hồi đa dạng hơn, trong khi giá trị gần với 0.0
thường sẽ dẫn đến các phản hồi ít bất ngờ hơn từ mô hình.
candidateCount
integer
Không bắt buộc. Số lượng tin nhắn phản hồi đã tạo cần trả về.
Giá trị này phải nằm trong khoảng từ [1, 8]
. Nếu bạn không đặt chính sách này, giá trị mặc định sẽ là 1
.
topP
number
Không bắt buộc. Xác suất tích luỹ tối đa của mã thông báo cần xem xét khi lấy mẫu.
Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.
Phương pháp lấy mẫu hạt nhân sẽ xem xét tập hợp mã thông báo nhỏ nhất có tổng xác suất ít nhất là topP
.
topK
integer
Không bắt buộc. Số lượng mã thông báo tối đa cần xem xét khi lấy mẫu.
Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.
Phương pháp lấy mẫu hàng đầu sẽ xem xét tập hợp topK
mã thông báo có khả năng có nhiều nhất.
Nội dung phản hồi
Phản hồi từ mô hình.
Dữ liệu này bao gồm cả tin nhắn đề xuất và nhật ký trò chuyện ở dạng tin nhắn được sắp xếp theo thứ tự thời gian.
Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:
candidates[]
object (Message
)
Tin nhắn phản hồi đề xuất từ mô hình.
messages[]
object (Message
)
Nhật ký trò chuyện mà mô hình sử dụng.
filters[]
object (ContentFilter
)
Một tập hợp siêu dữ liệu lọc nội dung cho câu lệnh và văn bản phản hồi.
Cột này cho biết(những) SafetyCategory
nào đã chặn một đề xuất khỏi câu trả lời này, HarmProbability
thấp nhất kích hoạt việc chặn và chế độ cài đặt Ngưỡng gây hại cho danh mục đó.
Biểu diễn dưới dạng JSON |
---|
{ "candidates": [ { object ( |
Phương thức: model.countMessageTokens
Chạy trình tạo mã thông báo của mô hình trên một chuỗi và trả về số lượng mã thông báo.
Điểm cuối
bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensTham số đường dẫn
model
string
Bắt buộc. Tên tài nguyên của mô hình. Đây là mã nhận dạng để Mô hình sử dụng.
Tên này phải khớp với tên mô hình được phương thức models.list
trả về.
Định dạng: models/{model}
. Định dạng này có dạng models/{model}
.
Nội dung yêu cầu
Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:
prompt
object (MessagePrompt
)
Bắt buộc. Lời nhắc có số lượng mã thông báo sẽ được trả về.
Nội dung phản hồi
Phản hồi của models.countMessageTokens
.
Hàm này trả về tokenCount
của mô hình cho prompt
.
Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:
tokenCount
integer
Số lượng mã thông báo mà model
mã hoá prompt
thành.
Luôn luôn là số âm.
Biểu diễn dưới dạng JSON |
---|
{ "tokenCount": integer } |
Phương thức: model.embedText
Tạo một mục nhúng từ mô hình dựa trên một thông báo đầu vào.
Điểm cuối
bài đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextTham số đường dẫn
model
string
Bắt buộc. Tên mô hình cần sử dụng với định dạng model=models/{model}. Phương thức này có dạng models/{model}
.
Nội dung yêu cầu
Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:
text
string
Không bắt buộc. Văn bản đầu vào dạng tự do mà mô hình sẽ chuyển thành dạng nhúng.
Phương thức: model.batchEmbeddedText
Tạo nhiều nội dung nhúng từ mô hình đã cho văn bản đầu vào trong lệnh gọi đồng bộ.
Điểm cuối
đăng https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextTham số đường dẫn
model
string
Bắt buộc. Tên của Model
dùng để tạo mục nhúng. Ví dụ: mô hình/embedding-gecko-001 Có dạng models/{model}
.
Nội dung yêu cầu
Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:
texts[]
string
Không bắt buộc. Văn bản đầu vào dạng tự do mà mô hình sẽ chuyển thành một nội dung nhúng. Giới hạn hiện tại là 100 văn bản và sẽ có lỗi.
requests[]
object (EmbedTextRequest
)
Không bắt buộc. Nhúng các yêu cầu cho lô. Bạn chỉ có thể đặt một trong hai giá trị texts
hoặc requests
.
Nội dung phản hồi
Phản hồi cho EmbeddedTextRequest.
Nếu thành công, phần nội dung phản hồi sẽ chứa dữ liệu có cấu trúc sau:
embeddings[]
object (Embedding
)
Chỉ có đầu ra. Các nội dung nhúng được tạo từ văn bản đầu vào.
Biểu diễn dưới dạng JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Yêu cầu tải một văn bản nhúng từ mô hình.
model
string
Bắt buộc. Tên mô hình để sử dụng với định dạng model=models/{model}.
text
string
Không bắt buộc. Văn bản đầu vào dạng tự do mà mô hình sẽ chuyển thành dạng nhúng.
Biểu diễn dưới dạng JSON |
---|
{ "model": string, "text": string } |
Phương thức: tunedModels.generateText
Tạo phản hồi từ mô hình khi có thông báo đầu vào.
Điểm cuối
đăng https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextTham số đường dẫn
model
string
Bắt buộc. Tên của Model
hoặc TunedModel
để sử dụng cho việc tạo thao tác hoàn tất. Ví dụ: mô hình/text-bison-001 TuningModels/sentence-translator-u3b7m Mã này có dạng tunedModels/{tunedmodel}
.
Nội dung yêu cầu
Nội dung yêu cầu chứa dữ liệu có cấu trúc sau:
prompt
object (TextPrompt
)
Bắt buộc. Văn bản đầu vào dạng tự do được cung cấp cho mô hình dưới dạng câu lệnh.
Khi đưa ra một câu lệnh, mô hình sẽ tạo một phản hồi TextCompletion (Hoàn thành văn bản) mà mô hình dự đoán khi hoàn tất văn bản nhập.
safetySettings[]
object (SafetySetting
)
Không bắt buộc. Danh sách các thực thể SafetySetting
riêng biệt để chặn nội dung không an toàn.
sẽ được thực thi trên GenerateTextRequest.prompt
và GenerateTextResponse.candidates
. Không được có nhiều hơn một chế độ cài đặt cho mỗi loại SafetyCategory
. API sẽ chặn mọi lời nhắc và phản hồi không đáp ứng các ngưỡng do các chế độ cài đặt này đặt ra. Danh sách này ghi đè chế độ cài đặt mặc định cho mỗi SafetyCategory
được chỉ định trong safetySettings. Nếu không có SafetySetting
cho một SafetyCategory
nhất định được cung cấp trong danh sách, thì API sẽ sử dụng chế độ cài đặt an toàn mặc định cho danh mục đó. Danh mục gây hại HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICS, HARM_CATEGORY_DANGEROUS được hỗ trợ trong dịch vụ văn bản.
stopSequences[]
string
Tập hợp các chuỗi ký tự (tối đa 5) sẽ ngừng tạo dữ liệu đầu ra. Nếu được chỉ định, API sẽ dừng tại lần xuất hiện đầu tiên của trình tự dừng. Trình tự dừng sẽ không được đưa vào phản hồi.
temperature
number
Không bắt buộc. Kiểm soát độ ngẫu nhiên của dữ liệu đầu ra. Lưu ý: Giá trị mặc định sẽ khác nhau tuỳ theo mô hình. Hãy xem thuộc tính Model.temperature
của Model
đã trả về hàm getModel
.
Giá trị có thể nằm trong khoảng từ [0,0,1,0]. Giá trị gần với 1.0 sẽ tạo ra các câu trả lời đa dạng và sáng tạo hơn, trong khi giá trị gần với 0.0 thường sẽ dẫn đến các câu trả lời đơn giản hơn từ mô hình.
candidateCount
integer
Không bắt buộc. Số lượng câu trả lời đã tạo cần trả về.
Giá trị này phải nằm trong khoảng từ 1 đến 8, bao gồm cả hai giá trị này. Nếu bạn không đặt giá trị, giá trị mặc định sẽ là 1.
maxOutputTokens
integer
Không bắt buộc. Số lượng mã thông báo tối đa để đưa vào một đề xuất.
Nếu bạn không đặt chính sách này, thì chế độ này sẽ mặc định là outputTokenLimit được chỉ định trong thông số kỹ thuật Model
.
topP
number
Không bắt buộc. Xác suất tích luỹ tối đa của mã thông báo cần xem xét khi lấy mẫu.
Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.
Hệ thống sắp xếp các mã thông báo dựa trên xác suất đã chỉ định của chúng để chỉ xem xét những mã thông báo có nhiều khả năng nhất. Phương pháp lấy mẫu Top-k trực tiếp giới hạn số lượng mã thông báo tối đa cần xem xét, trong khi phương pháp lấy mẫu Nucleus giới hạn số lượng mã thông báo dựa trên xác suất tích luỹ.
Lưu ý: Giá trị mặc định thay đổi tuỳ theo mẫu, hãy xem thuộc tính Model.top_p
của Model
đã trả về hàm getModel
.
topK
integer
Không bắt buộc. Số lượng mã thông báo tối đa cần xem xét khi lấy mẫu.
Mô hình này sử dụng kết hợp phương pháp lấy mẫu Top-k và hạt nhân.
Phương pháp lấy mẫu hàng đầu sẽ xem xét tập hợp topK
mã thông báo có khả năng có nhiều nhất. Giá trị mặc định là 40.
Lưu ý: Giá trị mặc định sẽ khác nhau tuỳ theo mô hình. Hãy xem thuộc tính Model.top_k
của Model
đã trả về hàm getModel
.
Nội dung phản hồi
Nếu thành công, nội dung phản hồi sẽ chứa một phiên bản của GenerateTextResponse
.
ContentFilter
Siêu dữ liệu lọc nội dung được liên kết với việc xử lý một yêu cầu duy nhất.
ContentFilter chứa lý do và chuỗi hỗ trợ không bắt buộc. Lý do có thể không được chỉ định.
reason
enum (BlockedReason
)
Lý do nội dung bị chặn trong quá trình xử lý yêu cầu.
message
string
Một chuỗi mô tả chi tiết hơn về hành vi lọc.
Biểu diễn dưới dạng JSON |
---|
{
"reason": enum ( |
BlockedReason
Danh sách các lý do có thể khiến nội dung bị chặn.
Enum | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Bạn chưa xác định một lý do bị chặn. |
SAFETY |
Nội dung đã bị chặn theo chế độ cài đặt an toàn. |
OTHER |
Nội dung đã bị chặn nhưng lý do chưa được phân loại. |
Nhúng
Danh sách các số thực đại diện cho phần nhúng.
value[]
number
Các giá trị nhúng.
Biểu diễn dưới dạng JSON |
---|
{ "value": [ number ] } |
Thông điệp
Đơn vị cơ sở của văn bản có cấu trúc.
Message
bao gồm author
và content
của Message
.
author
dùng để gắn thẻ thông báo khi các thông báo đó được gửi tới mô hình dưới dạng văn bản.
content
string
Bắt buộc. Nội dung văn bản của Message
có cấu trúc.
citationMetadata
object (CitationMetadata
)
Chỉ có đầu ra. Thông tin trích dẫn cho content
do mô hình tạo trong Message
này.
Nếu Message
này được tạo dưới dạng đầu ra từ mô hình, thì trường này có thể được điền thông tin phân bổ cho mọi văn bản có trong content
. Trường này chỉ được dùng cho dữ liệu đầu ra.
Biểu diễn dưới dạng JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Tất cả văn bản đầu vào có cấu trúc được truyền vào mô hình dưới dạng lời nhắc.
MessagePrompt
chứa một tập hợp các trường có cấu trúc cung cấp ngữ cảnh cho cuộc trò chuyện, ví dụ về các cặp tin nhắn đầu vào của người dùng/đầu ra của mô hình giúp mô hình phản hồi theo nhiều cách, cũng như nhật ký trò chuyện hoặc danh sách tin nhắn thể hiện các lượt trò chuyện luân phiên giữa người dùng và mô hình.
context
string
Không bắt buộc. Văn bản phải được cung cấp cho mô hình trước tiên để làm căn cứ cho câu trả lời.
Nếu không trống, context
này sẽ được cung cấp cho mô hình trước examples
và messages
. Khi sử dụng context
, hãy nhớ cung cấp cho context
mọi yêu cầu để duy trì tính liên tục.
Trường này có thể là nội dung mô tả câu lệnh của bạn cho mô hình để giúp cung cấp ngữ cảnh và hướng dẫn câu trả lời. Ví dụ: "Dịch cụm từ từ tiếng Anh sang tiếng Pháp" hoặc "Đối với một câu nhận định, hãy phân loại cảm xúc là vui, buồn hoặc trung tính".
Mọi nội dung có trong trường này sẽ được ưu tiên so với nhật ký tin nhắn nếu tổng kích thước nhập vượt quá inputTokenLimit
của mô hình và yêu cầu nhập bị cắt bớt.
examples[]
object (Example
)
Không bắt buộc. Ví dụ về nội dung mà mô hình sẽ tạo ra.
Dữ liệu này bao gồm cả dữ liệu đầu vào của người dùng và phản hồi mà mô hình sẽ mô phỏng.
Các examples
này được xử lý giống như các tin nhắn trò chuyện, ngoại trừ việc chúng được ưu tiên hơn nhật ký trong messages
: Nếu tổng kích thước đầu vào vượt quá inputTokenLimit
của mô hình, thì đầu vào sẽ bị cắt bớt. Các mặt hàng sẽ bị xoá khỏi messages
trước ngày examples
.
messages[]
object (Message
)
Bắt buộc. Thông tin tổng quan nhanh về nhật ký cuộc trò chuyện gần đây, được sắp xếp theo thứ tự thời gian.
Lượt thay phiên giữa hai tác giả.
Nếu tổng kích thước đầu vào vượt quá inputTokenLimit
của mô hình, thì dữ liệu đầu vào sẽ bị cắt bớt: Các mục cũ nhất sẽ bị loại bỏ khỏi messages
.
Ví dụ:
GenerateTextResponse
Phản hồi từ mô hình, bao gồm cả các đề xuất hoàn thành.
candidates[]
object (TextCompletion
)
Câu trả lời đề xuất của mô hình.
filters[]
object (ContentFilter
)
Một tập hợp siêu dữ liệu lọc nội dung cho câu lệnh và văn bản phản hồi.
Thông tin này cho biết (các) SafetyCategory
nào đã chặn một đề xuất khỏi phản hồi này, HarmProbability
thấp nhất đã kích hoạt lệnh chặn và chế độ cài đặt HarmThreshold cho danh mục đó. Điều này cho biết thay đổi nhỏ nhất đối với SafetySettings
cần thiết để bỏ chặn ít nhất 1 phản hồi.
Việc chặn được định cấu hình bởi SafetySettings
trong yêu cầu (hoặc SafetySettings
mặc định của API).
safetyFeedback[]
object (SafetyFeedback
)
Trả về mọi ý kiến phản hồi về sự an toàn liên quan đến việc lọc nội dung.
Biểu diễn dưới dạng JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
Văn bản đầu ra được trả về từ một mô hình.
output
string
Chỉ có đầu ra. Văn bản được tạo được trả về từ mô hình.
safetyRatings[]
object (SafetyRating
)
Điểm xếp hạng về độ an toàn của câu trả lời.
Mỗi danh mục chỉ có tối đa một mức phân loại.
citationMetadata
object (CitationMetadata
)
Chỉ có đầu ra. Thông tin trích dẫn cho output
do mô hình tạo trong TextCompletion
này.
Trường này có thể được điền thông tin phân bổ cho bất kỳ văn bản nào có trong output
.
Biểu diễn dưới dạng JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Ý kiến phản hồi về độ an toàn cho toàn bộ yêu cầu.
Trường này sẽ được điền nếu nội dung trong dữ liệu đầu vào và/hoặc phản hồi bị chặn do chế độ cài đặt an toàn. Có thể không phải trường hợp SafetyFeedback nào cũng có cho mọi HarmCategory. Mỗi SafetyFeedback sẽ trả về các chế độ cài đặt an toàn mà yêu cầu sử dụng cũng như HarmProbability thấp nhất được phép để trả về kết quả.
rating
object (SafetyRating
)
Điểm xếp hạng an toàn được đánh giá dựa trên nội dung.
setting
object (SafetySetting
)
Đã áp dụng các chế độ cài đặt an toàn cho yêu cầu.
Biểu diễn dưới dạng JSON |
---|
{ "rating": { object ( |