Yöntem: models.generateText
Giriş mesajı verildiğinde modelden bir yanıt oluşturur.
Uç nokta
yayınhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
Yol parametreleri
model
string
Zorunlu. Tamamlamayı oluşturmak için kullanılacak Model
veya TunedModel
öğesinin adı. Örnekler: models/text-bison-001 tunedModels/sentence-translator-u3b7m models/{model}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
prompt
object (TextPrompt
)
Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.
Model, bir istem verildiğinde giriş metninin tamamlanması olarak tahmin ettiği bir TextCompletion yanıtı oluşturur.
safetySettings[]
object (SafetySetting
)
İsteğe bağlı. Güvenli olmayan içeriği engellemek için kullanılan benzersiz SafetySetting
örnekleri listesi.
GenerateTextRequest.prompt
ve GenerateTextResponse.candidates
'te uygulanacak. Her SafetyCategory
türü için birden fazla ayar olmamalıdır. API, bu ayarlar tarafından belirlenen eşikleri karşılamayan tüm istemleri ve yanıtları engeller. Bu liste, safetySettings içinde belirtilen her SafetyCategory
için varsayılan ayarları geçersiz kılar. Listede belirli bir SafetyCategory
için SafetySetting
sağlanmamışsa API, söz konusu kategorinin varsayılan güvenlik ayarını kullanır. Metin hizmetinde HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS zarar kategorileri desteklenir.
stopSequences[]
string
Çıktı oluşturmayı durduracak karakter dizisi grubu (en fazla 5). Belirtilen durumda API, bir durdurma dizisinin ilk görünümünde durur. Durdurma sırası, yanıtın bir parçası olarak dahil edilmez.
temperature
number
İsteğe bağlı. Çıktının rastgeleliğini kontrol eder. Not: Varsayılan değer modele göre değişir. getModel
işlevini döndüren Model
işlevinin Model.temperature
özelliğine bakın.
Değerler [0,0; 1,0] aralığında olabilir. 1,0'a yakın bir değer, daha çeşitli ve yaratıcı yanıtlar üretirken 0,0'a yakın bir değer genellikle modelden daha basit yanıtlar alınmasına neden olur.
candidateCount
integer
İsteğe bağlı. Döndürülecek oluşturulan yanıt sayısı.
Bu değer, [1, 8] dahil bu sayılar arasında olmalıdır. Ayarlanmadan bırakılırsa varsayılan olarak 1 olur.
maxOutputTokens
integer
İsteğe bağlı. Bir adaya eklenebilecek maksimum jeton sayısı.
Bu ayar ayarlanmamışsa varsayılan olarak Model
spesifikasyonunda belirtilen outputTokenLimit değeri kullanılır.
topP
number
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.
Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.
Jetonlar, yalnızca en olası jetonların dikkate alınması için atanan olasılıklarına göre sıralanır. En iyi k örnekleme, dikkate alınacak maksimum jeton sayısını doğrudan sınırlar. Nucleus örnekleme ise jeton sayısını kümülatif olasılığa göre sınırlar.
Not: Varsayılan değer modele göre değişir. getModel
işlevini döndüren Model
işlevinin Model.top_p
özelliğine bakın.
topK
integer
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.
Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.
En yüksek k örnekleme, en olası topK
jeton kümesini dikkate alır. Varsayılan olarak 40 değerine ayarlanır.
Not: Varsayılan değer modele göre değişir. getModel
işlevini döndüren Model
işlevinin Model.top_k
özelliğine bakın.
Yanıt gövdesi
Başarılıysa yanıt metni, GenerateTextResponse
öğesinin bir örneğini içerir.
Yöntem: models.countTextTokens
Bir modelin kelime parçalayıcısını bir metinde çalıştırır ve jeton sayısını döndürür.
Uç nokta
yayınhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
Yol parametreleri
model
string
Zorunlu. Modelin kaynak adı. Bu, modelin kullanacağı bir kimlik görevi görür.
Bu ad, models.list
yöntemi tarafından döndürülen bir model adıyla eşleşmelidir.
Biçim: models/{model}
models/{model}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
prompt
object (TextPrompt
)
Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.
Yanıt gövdesi
models.countTextTokens
tarafından verilen yanıt.
prompt
için modelin tokenCount
değerini döndürür.
Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:
tokenCount
integer
model
'ın prompt
'u parçalara ayırdığı jeton sayısı.
Her zaman pozitiftir.
JSON gösterimi |
---|
{ "tokenCount": integer } |
Yöntem: models.generateMessage
MessagePrompt
girişi verildiğinde modelden bir yanıt oluşturur.
Uç nokta
yayınhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
Yol parametreleri
model
string
Zorunlu. Kullanılacak modelin adı.
Biçim: name=models/{model}
. models/{model}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
prompt
object (MessagePrompt
)
Zorunlu. Modele istem olarak verilen yapılandırılmış metin girişi.
Model, bir istem verildiğinde sohbetteki bir sonraki mesajın ne olacağını tahmin ederek döndürür.
temperature
number
İsteğe bağlı. Çıktının rastgeleliğini kontrol eder.
Değerler [0.0,1.0]
'ten büyük olabilir ([0.0,1.0]
dahil). 1.0
değerine yakın bir değer daha çeşitli yanıtlar üretirken 0.0
değerine yakın bir değer genellikle modelden daha az şaşırtıcı yanıtlar alınmasına neden olur.
candidateCount
integer
İsteğe bağlı. Döndürülecek oluşturulan yanıt mesajlarının sayısı.
Bu değer [1, 8]
ile arasında (değerler dahil) olmalıdır. Ayarlanmazsa varsayılan olarak 1
olur.
topP
number
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.
Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.
Çekirdek örnekleme, olasılık toplamı en az topP
olan en küçük jeton grubunu dikkate alır.
topK
integer
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.
Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.
En yüksek k örnekleme, en olası topK
jeton kümesini dikkate alır.
Yanıt gövdesi
Modelin yanıtı.
Bu, kronolojik olarak sıralanmış mesajlar biçiminde olası mesajları ve ileti dizisi geçmişini içerir.
Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:
candidates[]
object (Message
)
Modelden gelen olası yanıt mesajları.
messages[]
object (Message
)
Model tarafından kullanılan görüşme geçmişi.
filters[]
object (ContentFilter
)
İstem ve yanıt metni için bir içerik filtreleme meta veri grubu.
Bu, bir adayın bu yanıtta hangi SafetyCategory
'ler tarafından engellendiğini, engellemeyi tetikleyen en düşük HarmProbability
değerini ve ilgili kategorinin HarmThreshold ayarını gösterir.
JSON gösterimi |
---|
{ "candidates": [ { object ( |
Yöntem: models.countMessageTokens
Bir modelin dize parçalayıcısını bir dize üzerinde çalıştırır ve jeton sayısını döndürür.
Uç nokta
yayınhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
Yol parametreleri
model
string
Zorunlu. Modelin kaynak adı. Bu, modelin kullanacağı bir kimlik görevi görür.
Bu ad, models.list
yöntemi tarafından döndürülen bir model adıyla eşleşmelidir.
Biçim: models/{model}
models/{model}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
prompt
object (MessagePrompt
)
Zorunlu. Jeton sayısı döndürülecek istem.
Yanıt gövdesi
models.countMessageTokens
tarafından verilen yanıt.
prompt
için modelin tokenCount
değerini döndürür.
Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:
tokenCount
integer
model
'ın prompt
'u parçalara ayırdığı jeton sayısı.
Her zaman pozitiftir.
JSON gösterimi |
---|
{ "tokenCount": integer } |
Yöntem: models.embedText
Giriş mesajı verilen modelden bir yerleştirme oluşturur.
Uç nokta
yayınhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
Yol parametreleri
model
string
Zorunlu. model=models/{model} biçimiyle kullanılacak model adı. models/{model}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
text
string
İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metni.
Yöntem: models.batchEmbedText
Senkron çağrıda, modele verilen giriş metninden birden fazla yerleştirilmiş öğe oluşturur.
Uç nokta
yayınhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
Yol parametreleri
model
string
Zorunlu. Yerleşim oluşturmak için kullanılacak Model
öğesinin adı. Örnekler: models/embedding-gecko-001 models/{model}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
texts[]
string
İsteğe bağlı. Modelin yerleştirilmiş öğeye dönüştüreceği serbest biçimli giriş metinleri. Mevcut sınır 100 metindir. Bu sınırı aşarsanız hata mesajı alırsınız.
requests[]
object (EmbedTextRequest
)
İsteğe bağlı. Grup için istekleri yerleştirin. Yalnızca bir texts
veya requests
ayarlanabilir.
Yanıt gövdesi
EmbedTextRequest isteğinin yanıtı.
Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:
embeddings[]
object (Embedding
)
Yalnızca çıkış. Giriş metninden oluşturulan gömmeler.
JSON gösterimi |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Modelden metin yerleştirme isteği gönderin.
model
string
Zorunlu. model=models/{model} biçimiyle kullanılacak model adı.
text
string
İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metni.
JSON gösterimi |
---|
{ "model": string, "text": string } |
Yöntem: tunedModels.generateText
Giriş mesajı verildiğinde modelden bir yanıt oluşturur.
Uç nokta
yayınhttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateText
Yol parametreleri
model
string
Zorunlu. Tamamlamayı oluşturmak için kullanılacak Model
veya TunedModel
öğesinin adı. Örnekler: models/text-bison-001 tunedModels/sentence-translator-u3b7m tunedModels/{tunedmodel}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
prompt
object (TextPrompt
)
Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.
Model, bir istem verildiğinde giriş metninin tamamlanması olarak tahmin ettiği bir TextCompletion yanıtı oluşturur.
safetySettings[]
object (SafetySetting
)
İsteğe bağlı. Güvenli olmayan içeriği engellemek için kullanılan benzersiz SafetySetting
örnekleri listesi.
GenerateTextRequest.prompt
ve GenerateTextResponse.candidates
'te uygulanacak. Her SafetyCategory
türü için birden fazla ayar olmamalıdır. API, bu ayarlar tarafından belirlenen eşikleri karşılamayan tüm istemleri ve yanıtları engeller. Bu liste, safetySettings içinde belirtilen her SafetyCategory
için varsayılan ayarları geçersiz kılar. Listede belirli bir SafetyCategory
için SafetySetting
sağlanmamışsa API, söz konusu kategorinin varsayılan güvenlik ayarını kullanır. Metin hizmetinde HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS zarar kategorileri desteklenir.
stopSequences[]
string
Çıktı oluşturmayı durduracak karakter dizisi grubu (en fazla 5). Belirtilen durumda API, bir durdurma dizisinin ilk görünümünde durur. Durdurma sırası, yanıtın bir parçası olarak dahil edilmez.
temperature
number
İsteğe bağlı. Çıktının rastgeleliğini kontrol eder. Not: Varsayılan değer modele göre değişir. getModel
işlevini döndüren Model
işlevinin Model.temperature
özelliğine bakın.
Değerler [0,0; 1,0] aralığında olabilir. 1,0'a yakın bir değer, daha çeşitli ve yaratıcı yanıtlar üretirken 0,0'a yakın bir değer genellikle modelden daha basit yanıtlar alınmasına neden olur.
candidateCount
integer
İsteğe bağlı. Döndürülecek oluşturulan yanıt sayısı.
Bu değer, [1, 8] dahil bu sayılar arasında olmalıdır. Ayarlanmadan bırakılırsa varsayılan olarak 1 olur.
maxOutputTokens
integer
İsteğe bağlı. Bir adaya eklenebilecek maksimum jeton sayısı.
Bu ayar ayarlanmamışsa varsayılan olarak Model
spesifikasyonunda belirtilen outputTokenLimit değeri kullanılır.
topP
number
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.
Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.
Jetonlar, yalnızca en olası jetonların dikkate alınması için atanan olasılıklarına göre sıralanır. En iyi k örnekleme, dikkate alınacak maksimum jeton sayısını doğrudan sınırlar. Nucleus örnekleme ise jeton sayısını kümülatif olasılığa göre sınırlar.
Not: Varsayılan değer modele göre değişir. getModel
işlevini döndüren Model
işlevinin Model.top_p
özelliğine bakın.
topK
integer
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.
Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.
En yüksek k örnekleme, en olası topK
jeton kümesini dikkate alır. Varsayılan olarak 40 değerine ayarlanır.
Not: Varsayılan değer modele göre değişir. getModel
işlevini döndüren Model
işlevinin Model.top_k
özelliğine bakın.
Yanıt gövdesi
Başarılıysa yanıt metni, GenerateTextResponse
öğesinin bir örneğini içerir.
ContentFilter
Tek bir isteğin işlenmesiyle ilişkili içerik filtreleme meta verileri.
ContentFilter, bir neden ve isteğe bağlı bir destekleyici dize içerir. Neden belirtilmeyebilir.
reason
enum (BlockedReason
)
İçeriğin istek işleme sırasında engellenmesinin nedeni.
message
string
Filtreleme davranışını daha ayrıntılı olarak açıklayan bir dize.
JSON gösterimi |
---|
{
"reason": enum ( |
BlockedReason
İçeriğin engellenmesinin olası nedenlerinin listesi.
Sıralamalar | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Engelleme nedeni belirtilmedi. |
SAFETY |
İçerik, güvenlik ayarları tarafından engellendi. |
OTHER |
İçerik engellendi ancak neden kategorize edilmedi. |
Yerleştirme
Yerleşimi temsil eden kayan noktaların listesi.
value[]
number
Yerleştirme değerleri.
JSON gösterimi |
---|
{ "value": [ number ] } |
Mesaj
Yapılandırılmış metnin temel birimi.
Message
, bir author
ve Message
'nin content
öğesini içerir.
author
, modele metin olarak beslenen mesajları etiketlemek için kullanılır.
content
string
Zorunlu. Yapılandırılmış Message
öğesinin metin içeriği.
citationMetadata
object (CitationMetadata
)
Yalnızca çıkış. Bu Message
'da model tarafından oluşturulan content
için alıntı bilgileri.
Bu Message
, modelden çıkış olarak oluşturulduysa bu alan, content
'a dahil edilen tüm metinler için ilişkilendirme bilgileriyle doldurulabilir. Bu alan yalnızca çıkışta kullanılır.
JSON gösterimi |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Modele istem olarak iletilen tüm yapılandırılmış giriş metni.
MessagePrompt
, sohbet için bağlam sağlayan yapılandırılmış bir alan grubu, modeli farklı şekillerde yanıt vermeye hazırlayan kullanıcı girişi/model çıkışı mesaj çifti örnekleri ve kullanıcı ile model arasındaki sohbetin sıralı dönüşlerini temsil eden sohbet geçmişi veya mesaj listesini içerir.
context
string
İsteğe bağlı. Yanıtı temellendirmek için önce modele sağlanması gereken metin.
Boş değilse bu context
, examples
ve messages
'den önce modele verilir. context
kullanırken sürekliliği sağlamak için her istekle birlikte sağladığınızdan emin olun.
Bu alan, bağlam sağlamak ve yanıtları yönlendirmek için modele verdiğiniz istemin açıklaması olabilir. Örnekler: "İfadeyi İngilizceden Fransızcaya çevir." veya "Bir ifadenin duygusunu mutlu, üzgün veya nötr olarak sınıflandır."
Toplam giriş boyutu modelin inputTokenLimit
değerini aşarsa ve giriş isteği kısaltılırsa bu alana dahil edilen her şey ileti geçmişine göre öncelikli olur.
examples[]
object (Example
)
İsteğe bağlı. Modelin oluşturması gereken örnekler.
Buna hem kullanıcı girişi hem de modelin taklit etmesi gereken yanıt dahildir.
Bu examples
, messages
'daki geçmişe göre öncelikli olmaları dışında sohbet mesajlarıyla aynı şekilde işlenir: Toplam giriş boyutu modelin inputTokenLimit
değerini aşarsa giriş kısaltılır. Öğeler examples
tarihinden önce messages
'ten kaldırılacak.
messages[]
object (Message
)
Zorunlu. Son görüşme geçmişinin kronolojik olarak sıralanmış anlık görüntüsü.
İki yazar arasında geçiş yapar.
Toplam giriş boyutu modelin inputTokenLimit
değerini aşarsa giriş kısaltılır: En eski öğeler messages
'dan çıkarılır.
Örnek
Modele talimat vermek için kullanılan bir giriş/çıkış örneği.
Modelin nasıl yanıt vermesi veya yanıtını nasıl biçimlendirmesi gerektiğini gösterir.
input
object (Message
)
Zorunlu. Kullanıcıdan gelen Message
girişi örneği.
output
object (Message
)
Zorunlu. Giriş verildiğinde modelin ne tür bir çıkış vermesi gerektiğini gösteren örnek.
GenerateTextResponse
Aday tamamlamalar dahil olmak üzere modelden gelen yanıt.
candidates[]
object (TextCompletion
)
Modelin önerdiği yanıtlar.
filters[]
object (ContentFilter
)
İstem ve yanıt metni için bir içerik filtreleme meta veri grubu.
Bu, bir adayın bu yanıtta hangi SafetyCategory
'ler tarafından engellendiğini, engellemeyi tetikleyen en düşük HarmProbability
değerini ve ilgili kategorinin HarmThreshold ayarını gösterir. Bu, en az 1 yanıtın engellemesinin kaldırılması için SafetySettings
'te yapılması gereken en küçük değişikliği gösterir.
Engelleme, istekteki SafetySettings
(veya API'nin varsayılan SafetySettings
) tarafından yapılandırılır.
safetyFeedback[]
object (SafetyFeedback
)
İçerik filtrelemeyle ilgili tüm güvenlik geri bildirimlerini döndürür.
JSON gösterimi |
---|
{ "candidates": [ { object ( |
TextCompletion
Bir modelden döndürülen çıkış metni.
output
string
Yalnızca çıkış. Modelden döndürülen oluşturulmuş metin.
safetyRatings[]
object (SafetyRating
)
Bir yanıtın güvenliğine ilişkin derecelendirmeler.
Kategori başına en fazla bir derecelendirme vardır.
citationMetadata
object (CitationMetadata
)
Yalnızca çıkış. Bu TextCompletion
'da model tarafından oluşturulan output
için alıntı bilgileri.
Bu alan, output
öğesine dahil edilen herhangi bir metin için ilişkilendirme bilgileriyle doldurulabilir.
JSON gösterimi |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
İsteğin tamamı için güvenlik geri bildirimi.
Giriş ve/veya yanıttaki içerik güvenlik ayarları nedeniyle engellenirse bu alan doldurulur. SafetyFeedback, her HarmCategory için mevcut olmayabilir. Her SafetyFeedback, istek tarafından kullanılan güvenlik ayarlarının yanı sıra bir sonuç döndürmek için izin verilmesi gereken en düşük HarmProbability değerini döndürür.
rating
object (SafetyRating
)
İçerikten değerlendirilen güvenlik derecelendirmesi.
setting
object (SafetySetting
)
İsteğe uygulanan güvenlik ayarları.
JSON gösterimi |
---|
{ "rating": { object ( |