Yöntem: models.generateText
Giriş mesajı verilen modelden bir yanıt oluşturur.
Uç nokta
yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextYol parametreleri
model
string
Zorunlu. Tamamlamayı oluşturmak için kullanılacak Model
veya TunedModel
öğesinin adı. Örnekler: models/text-bison-001 tunedModels/sentence-translator-u3b7m models/{model}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
prompt
object (TextPrompt
)
Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.
Bir istem verildiğinde model, giriş metninin tamamlandığını tahmin ettiği bir Metin Tamamlama yanıtı oluşturur.
safetySettings[]
object (SafetySetting
)
İsteğe bağlı. Güvenli olmayan içeriği engellemek için kullanılan benzersiz SafetySetting
örnekleri listesi.
GenerateTextRequest.prompt
ve GenerateTextResponse.candidates
'te uygulanacak. Her SafetyCategory
türü için birden fazla ayar olmamalıdır. API, bu ayarlar tarafından belirlenen eşikleri karşılamayan tüm istemleri ve yanıtları engeller. Bu liste, safetySettings içinde belirtilen her SafetyCategory
için varsayılan ayarları geçersiz kılar. Listede belirli bir SafetyCategory
için SafetySetting
sağlanmamışsa API, ilgili kategorinin varsayılan güvenlik ayarını kullanır. Metin hizmetinde HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_GEDANROUS zarar kategorileri desteklenir.
stopSequences[]
string
Çıktı oluşturmayı durduracak karakter dizisi grubu (en fazla 5). Belirtilirse API, bir durdurma sırasının ilk görünümünde durur. Durdurma sırası, yanıtın bir parçası olarak dahil edilmez.
temperature
number
İsteğe bağlı. Çıkışın rastgeleliğini kontrol eder. Not: Varsayılan değer modele göre değişir. getModel
işlevini döndüren Model
işlevinin Model.temperature
özelliğine bakın.
Değerler [0,0;1,0] aralığında olabilir. 1,0'a yakın bir değer, daha çeşitli ve yaratıcı yanıtlar üretirken 0,0'a yakın bir değer genellikle modelden daha basit yanıtlar alınmasına neden olur.
candidateCount
integer
İsteğe bağlı. Döndürülecek oluşturulan yanıt sayısı.
Bu değer, [1, 8] arasında (bu değerler dahil) olmalıdır. Politika ayarlanmadan bırakılırsa varsayılan olarak 1 değerine ayarlanır.
maxOutputTokens
integer
İsteğe bağlı. Bir adaya dahil edilecek maksimum jeton sayısı.
Politika ayarlanmadan bırakılırsa varsayılan olarak Model
spesifikasyonunda belirtilen çıkışTokenLimit değeri kullanılır.
topP
number
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.
Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.
Jetonlar, atanan olasılıklara göre sıralanır. Böylece yalnızca en olası jetonlar dikkate alınır. Top-k örnekleme, dikkate alınacak maksimum jeton sayısını doğrudan sınırlar. Nucleus örnekleme ise jeton sayısını kümülatif olasılığa göre sınırlar.
Not: Varsayılan değer modele göre değişir. getModel
işlevini döndüren Model
işlevinin Model.top_p
özelliğine bakın.
topK
integer
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.
Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.
Top-k örneklemesi, en olası topK
jeton grubunu dikkate alır. Varsayılan olarak 40 değerine ayarlanır.
Not: Varsayılan değer modele göre değişir. Model
işlevinin Model.top_k
özelliğinde, getModel
işlevi döndürülür.
Yanıt gövdesi
Başarılıysa yanıt metni, GenerateTextResponse
öğesinin bir örneğini içerir.
Yöntem: models.countTextTokens
Bir modelin kelime parçalayıcısını bir metinde çalıştırır ve jeton sayısını döndürür.
Uç nokta
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensYol parametreleri
model
string
Zorunlu. Modelin kaynak adı. Bu, modelin kullanacağı kimliktir.
Bu ad, models.list
yöntemi tarafından döndürülen bir model adıyla eşleşmelidir.
Biçim: models/{model}
models/{model}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
prompt
object (TextPrompt
)
Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.
Yanıt gövdesi
models.countTextTokens
tarafından verilen yanıt.
prompt
için modelin tokenCount
değerini döndürür.
Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:
tokenCount
integer
model
öğesinin, prompt
öğesini belirteceği jeton sayısı.
Her zaman pozitiftir.
JSON gösterimi |
---|
{ "tokenCount": integer } |
Yöntem: model.generateMessage
MessagePrompt
girişi verildiğinde modelden bir yanıt oluşturur.
Uç nokta
yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageYol parametreleri
model
string
Zorunlu. Kullanılacak modelin adı.
Biçim: name=models/{model}
. models/{model}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
prompt
object (MessagePrompt
)
Zorunlu. Modele istem olarak verilen yapılandırılmış metin girişi.
Model, bir istem verildiğinde tartışmadaki bir sonraki mesajın ne olacağını tahmin ederek döndürür.
temperature
number
İsteğe bağlı. Çıkışın rastgeleliğini kontrol eder.
Değerler [0.0,1.0]
'ten büyük olabilir ([0.0,1.0]
dahil). 1.0
değerine yakın bir değer daha çeşitli yanıtlar üretirken 0.0
değerine yakın bir değer genellikle modelden daha az şaşırtıcı yanıtlar alınmasına neden olur.
candidateCount
integer
İsteğe bağlı. Oluşturulan ve döndürülecek yanıt mesajlarının sayısı.
Bu değer [1, 8]
ile arasında (değerler dahil) olmalıdır. Politika ayarlanmadan bırakılırsa varsayılan olarak 1
ayarlanır.
topP
number
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.
Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.
Çekirdek örnekleme, olasılık toplamı en az topP
olan en küçük jeton grubunu dikkate alır.
topK
integer
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.
Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.
Top-k örneklemesi, en olası topK
jeton grubunu dikkate alır.
Yanıt gövdesi
Modelin yanıtı.
Bunlara aday mesajları ve görüşme geçmişi de kronolojik olarak sıralanmış mesajlar biçiminde dahildir.
Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:
candidates[]
object (Message
)
Modelden gelen yanıt mesajları.
messages[]
object (Message
)
Model tarafından kullanılan görüşme geçmişi.
filters[]
object (ContentFilter
)
İstem ve yanıt metni için bir içerik filtreleme meta verisi grubu.
Bu parametreler, bir adayın bu yanıttan hangi SafetyCategory
tarafından engellendiğini, engellemeyi tetikleyen en düşük HarmProbability
değerini ve ilgili kategori için HarmThreshold ayarını gösterir.
JSON gösterimi |
---|
{ "candidates": [ { object ( |
Yöntem: models.countMessageTokens
Bir modelin tokenizer'ını bir dize üzerinde çalıştırır ve jeton sayısını döndürür.
Uç nokta
yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensYol parametreleri
model
string
Zorunlu. Modelin kaynak adı. Bu, modelin kullanacağı kimliktir.
Bu ad, models.list
yöntemi tarafından döndürülen bir model adıyla eşleşmelidir.
Biçim: models/{model}
models/{model}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
prompt
object (MessagePrompt
)
Zorunlu. Jeton sayısı döndürülecek olan istem.
Yanıt gövdesi
models.countMessageTokens
yanıtı.
prompt
için modelin tokenCount
değerini döndürür.
Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:
tokenCount
integer
model
'ın prompt
'u parçalara ayırdığı jeton sayısı.
Her zaman pozitiftir.
JSON gösterimi |
---|
{ "tokenCount": integer } |
Yöntem: models.embedText
Giriş mesajı verilen modelden bir yerleştirme oluşturur.
Uç nokta
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextYol parametreleri
model
string
Zorunlu. model=modeller/{model} biçimiyle kullanılacak model adı. models/{model}
biçimindedir.
İstek içeriği
İstek gövdesi aşağıdaki yapıya sahip verileri içerir:
text
string
İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metni.
Yöntem: model.batchEmbedText
Eşzamanlı bir çağrıda belirtilen giriş metninden birden fazla yerleştirme oluşturur.
Uç nokta
yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextYol parametreleri
model
string
Zorunlu. Yerleştirmeyi oluşturmak için kullanılacak Model
öğesinin adı. Örnekler: models/embedding-gecko-001 models/{model}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
texts[]
string
İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metinleri. Geçerli sınır 100 metindir ve bu değerin üzerinde bir hata verilir.
requests[]
object (EmbedTextRequest
)
İsteğe bağlı. Grup için istekleri yerleştirin. Yalnızca bir texts
veya requests
ayarlanabilir.
Yanıt gövdesi
EmbedTextRequest isteğinin yanıtı.
Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:
embeddings[]
object (Embedding
)
Yalnızca çıkış. Girdi metninden oluşturulan yerleştirilmiş öğeler.
JSON gösterimi |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Modelden yerleştirilmiş bir metin alma isteği.
model
string
Zorunlu. model=models/{model} biçimiyle kullanılacak model adı.
text
string
İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metni.
JSON gösterimi |
---|
{ "model": string, "text": string } |
Yöntem: TuneModels.generateText
Giriş mesajı verilen modelden bir yanıt oluşturur.
Uç nokta
yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextYol parametreleri
model
string
Zorunlu. Tamamlamayı oluşturmak için kullanılacak Model
veya TunedModel
öğesinin adı. Örnekler: model/text-bison-001 bölümlüModeller/sentence-generative-u3b7m tunedModels/{tunedmodel}
biçimindedir.
İstek içeriği
İstek metni aşağıdaki yapıyla birlikte verileri içerir:
prompt
object (TextPrompt
)
Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.
Bir istem verildiğinde model, giriş metninin tamamlandığını tahmin ettiği bir Metin Tamamlama yanıtı oluşturur.
safetySettings[]
object (SafetySetting
)
İsteğe bağlı. Güvenli olmayan içeriği engellemek için kullanılan benzersiz SafetySetting
örnekleri listesi.
GenerateTextRequest.prompt
ve GenerateTextResponse.candidates
'te uygulanacak. Her SafetyCategory
türü için birden fazla ayar olmamalıdır. API, bu ayarlar tarafından belirlenen eşikleri karşılamayan tüm istemleri ve yanıtları engeller. Bu liste, safetySettings içinde belirtilen her SafetyCategory
için varsayılan ayarları geçersiz kılar. Listede belirli bir SafetyCategory
için SafetySetting
sağlanmamışsa API, ilgili kategorinin varsayılan güvenlik ayarını kullanır. Metin hizmetinde HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_GEDANROUS zarar kategorileri desteklenir.
stopSequences[]
string
Çıktı oluşturmayı durduracak karakter dizisi grubu (en fazla 5). Belirtilirse API, bir durdurma sırasının ilk görünümünde durur. Durdurma sırası, yanıtın bir parçası olarak dahil edilmez.
temperature
number
İsteğe bağlı. Çıkışın rastgeleliğini kontrol eder. Not: Varsayılan değer modele göre değişir. getModel
işlevini döndüren Model
işlevinin Model.temperature
özelliğine bakın.
Değerler [0,0;1,0] aralığında olabilir. 1,0'a yakın bir değer, daha çeşitli ve yaratıcı yanıtlar üretirken 0,0'a yakın bir değer genellikle modelden daha basit yanıtlar alınmasına neden olur.
candidateCount
integer
İsteğe bağlı. Döndürülecek oluşturulan yanıt sayısı.
Bu değer, [1, 8] arasında (bu değerler dahil) olmalıdır. Politika ayarlanmadan bırakılırsa varsayılan olarak 1 değerine ayarlanır.
maxOutputTokens
integer
İsteğe bağlı. Bir adaya dahil edilecek maksimum jeton sayısı.
Politika ayarlanmadan bırakılırsa varsayılan olarak Model
spesifikasyonunda belirtilen çıkışTokenLimit değeri kullanılır.
topP
number
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.
Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.
Jetonlar, atanan olasılıklara göre sıralanır. Böylece yalnızca en olası jetonlar dikkate alınır. Top-k örnekleme, dikkate alınacak maksimum jeton sayısını doğrudan sınırlar. Nucleus örnekleme ise jeton sayısını kümülatif olasılığa göre sınırlar.
Not: Varsayılan değer modele göre değişir. getModel
işlevini döndüren Model
işlevinin Model.top_p
özelliğine bakın.
topK
integer
İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.
Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.
Top-k örneklemesi, en olası topK
jeton grubunu dikkate alır. Varsayılan olarak 40 değerine ayarlanır.
Not: Varsayılan değer modele göre değişir. Model
işlevinin Model.top_k
özelliğinde, getModel
işlevi döndürülür.
Yanıt gövdesi
Başarılıysa yanıt metni, GenerateTextResponse
öğesinin bir örneğini içerir.
ContentFilter
Tek bir isteğin işlenmesiyle ilişkili içerik filtreleme meta verileri.
ContentFilter, bir neden ve isteğe bağlı bir destekleyici dize içerir. Nedeni belirtilmemiş olabilir.
reason
enum (BlockedReason
)
İçeriğin istek işleme sırasında engellenmesinin nedeni.
message
string
Filtreleme davranışını daha ayrıntılı olarak açıklayan bir dize.
JSON gösterimi |
---|
{
"reason": enum ( |
BlockedReason
İçeriğin engellenmesinin nedenlerinin bir listesi.
Sıralamalar | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Engelleme nedeni belirtilmedi. |
SAFETY |
İçerik, güvenlik ayarları tarafından engellendi. |
OTHER |
İçerik engellendi ancak nedeni kategorize edilmemiş. |
Yerleştirme
Yerleşimi temsil eden kayan nokta değerlerinin listesi.
value[]
number
Yerleştirme değerleri.
JSON gösterimi |
---|
{ "value": [ number ] } |
Mesaj
Yapılandırılmış metnin temel birimi.
Message
, Message
öğesinin author
ve content
öğelerini içerir.
author
, modele metin olarak beslenen mesajları etiketlemek için kullanılır.
content
string
Zorunlu. Yapılandırılmış Message
öğesinin metin içeriği.
citationMetadata
object (CitationMetadata
)
Yalnızca çıkış. Bu Message
içinde, model tarafından oluşturulmuş content
için alıntı bilgileri.
Bu Message
, modelin çıktısı olarak oluşturulduysa bu alan, content
içindeki herhangi bir metin için ilişkilendirme bilgileriyle doldurulabilir. Bu alan yalnızca çıkışta kullanılır.
JSON gösterimi |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Modele istem olarak iletilen tüm yapılandırılmış giriş metni.
MessagePrompt
, sohbet için bağlam sağlayan yapılandırılmış bir alan grubu, modeli farklı şekillerde yanıt vermeye hazırlayan kullanıcı girişi/model çıkışı mesaj çifti örnekleri ve kullanıcı ile model arasındaki sohbetin sıralı dönüşlerini temsil eden sohbet geçmişini veya mesaj listesini içerir.
context
string
İsteğe bağlı. Yanıtı temellendirmek için önce modele sağlanması gereken metin.
Boş değilse bu context
, examples
ve messages
'den önce modele verilir. Sürekliliği sağlamak için context
kullanırken her istekte bu özelliği sağladığınızdan emin olun.
Bu alan, bağlam sağlamak ve yanıtlara rehberlik etmek için modele verdiğiniz istemin açıklaması olabilir. Örnekler: "İfadeyi İngilizceden Fransızcaya çevir." veya "Bir ifadede duyguyu mutlu, üzgün veya nötr olarak sınıflandırın."
Toplam giriş boyutu modelin inputTokenLimit
değerini aşarsa ve giriş isteği kısaltılırsa bu alana dahil edilen her şey ileti geçmişine göre öncelikli olur.
examples[]
object (Example
)
İsteğe bağlı. Modelin oluşturması gerekenlerle ilgili örnekler.
Buna hem kullanıcı girişi hem de modelin taklit etmesi gereken yanıt dahildir.
Bu examples
, messages
'daki geçmişe göre öncelikli olmaları dışında sohbet mesajlarıyla aynı şekilde işlenir: Toplam giriş boyutu modelin inputTokenLimit
değerini aşarsa giriş kısaltılır. Öğeler examples
tarihinden önce messages
'ten kaldırılacak.
messages[]
object (Message
)
Zorunlu. Kronolojik olarak sıralanmış son sohbet geçmişinin anlık görüntüsü.
İki yazar arasında geçiş yapar.
Toplam giriş boyutu modelin inputTokenLimit
değerini aşarsa giriş kısaltılır: En eski öğeler messages
'dan çıkarılır.
Örnek
Modele talimat vermek için kullanılan bir giriş/çıkış örneği.
Modelin nasıl yanıt vermesi veya yanıtı biçimlendirmesi gerektiğini gösterir.
input
object (Message
)
Zorunlu. Kullanıcıdan gelen bir giriş Message
örneği.
output
object (Message
)
Zorunlu. Giriş verildiğinde modelin ne tür bir çıkış vermesi gerektiğini gösteren örnek.
GenerateTextResponse
Aday tamamlamalar dahil olmak üzere modelden gelen yanıt.
candidates[]
object (TextCompletion
)
Modelden Aday yanıtları.
filters[]
object (ContentFilter
)
İstem ve yanıt metni için bir içerik filtreleme meta verisi grubu.
Bu parametreler, bir adayın bu yanıttan hangi SafetyCategory
tarafından engellendiğini, engellemeyi tetikleyen en düşük HarmProbability
değerini ve ilgili kategori için HarmThreshold ayarını gösterir. Bu, SafetySettings
ile ilgili olarak en az 1 yanıtın engellemesini kaldırmak için yapılması gereken en küçük değişikliği gösterir.
Engelleme, istekteki SafetySettings
(veya API'nin varsayılan SafetySettings
) tarafından yapılandırılır.
safetyFeedback[]
object (SafetyFeedback
)
İçerik filtrelemeyle ilgili güvenlik geri bildirimlerini döndürür.
JSON gösterimi |
---|
{ "candidates": [ { object ( |
TextCompletion
Bir modelden döndürülen çıkış metni.
output
string
Yalnızca çıkış. Modelden döndürülen oluşturulmuş metin.
safetyRatings[]
object (SafetyRating
)
Bir yanıtın güvenliğine ilişkin derecelendirmeler.
Kategori başına en fazla bir derecelendirme vardır.
citationMetadata
object (CitationMetadata
)
Yalnızca çıkış. Bu TextCompletion
'da model tarafından oluşturulan output
için alıntı bilgileri.
Bu alan, output
özelliğine dahil edilen herhangi bir metin için atıf bilgileriyle doldurulabilir.
JSON gösterimi |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
İsteğin tamamı için güvenlik geri bildirimi.
Bu alan, giriş ve/veya yanıttaki içerik güvenlik ayarları nedeniyle engellenmişse doldurulur. SafetyFeedback her HarmCategory için mevcut olmayabilir. Her SafetyFeedback, istek tarafından kullanılan güvenlik ayarlarının yanı sıra bir sonuç döndürmek için izin verilmesi gereken en düşük HarmProbability değerini döndürür.
rating
object (SafetyRating
)
İçerikten değerlendirilen güvenlik derecelendirmesi.
setting
object (SafetySetting
)
İsteğe uygulanan güvenlik ayarları.
JSON gösterimi |
---|
{ "rating": { object ( |