PaLM (decommissioned)

Yöntem: models.generateText

Giriş mesajı verilen modelden bir yanıt oluşturur.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Yol parametreleri

model string

Zorunlu. Tamamlamayı oluşturmak için kullanılacak Model veya TunedModel öğesinin adı. Örnekler: models/text-bison-001 tunedModels/sentence-translator-u3b7m models/{model} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
prompt object (TextPrompt)

Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.

Bir istem verildiğinde model, giriş metninin tamamlandığını tahmin ettiği bir Metin Tamamlama yanıtı oluşturur.

safetySettings[] object (SafetySetting)

İsteğe bağlı. Güvenli olmayan içeriği engellemek için kullanılan benzersiz SafetySetting örnekleri listesi.

GenerateTextRequest.prompt ve GenerateTextResponse.candidates'te uygulanacak. Her SafetyCategory türü için birden fazla ayar olmamalıdır. API, bu ayarlar tarafından belirlenen eşikleri karşılamayan tüm istemleri ve yanıtları engeller. Bu liste, safetySettings içinde belirtilen her SafetyCategory için varsayılan ayarları geçersiz kılar. Listede belirli bir SafetyCategory için SafetySetting sağlanmamışsa API, ilgili kategorinin varsayılan güvenlik ayarını kullanır. Metin hizmetinde HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_GEDANROUS zarar kategorileri desteklenir.

stopSequences[] string

Çıktı oluşturmayı durduracak karakter dizisi grubu (en fazla 5). Belirtilirse API, bir durdurma sırasının ilk görünümünde durur. Durdurma sırası, yanıtın bir parçası olarak dahil edilmez.

temperature number

İsteğe bağlı. Çıkışın rastgeleliğini kontrol eder. Not: Varsayılan değer modele göre değişir. getModel işlevini döndüren Model işlevinin Model.temperature özelliğine bakın.

Değerler [0,0;1,0] aralığında olabilir. 1,0'a yakın bir değer, daha çeşitli ve yaratıcı yanıtlar üretirken 0,0'a yakın bir değer genellikle modelden daha basit yanıtlar alınmasına neden olur.

candidateCount integer

İsteğe bağlı. Döndürülecek oluşturulan yanıt sayısı.

Bu değer, [1, 8] arasında (bu değerler dahil) olmalıdır. Politika ayarlanmadan bırakılırsa varsayılan olarak 1 değerine ayarlanır.

maxOutputTokens integer

İsteğe bağlı. Bir adaya dahil edilecek maksimum jeton sayısı.

Politika ayarlanmadan bırakılırsa varsayılan olarak Model spesifikasyonunda belirtilen çıkışTokenLimit değeri kullanılır.

topP number

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.

Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.

Jetonlar, atanan olasılıklara göre sıralanır. Böylece yalnızca en olası jetonlar dikkate alınır. Top-k örnekleme, dikkate alınacak maksimum jeton sayısını doğrudan sınırlar. Nucleus örnekleme ise jeton sayısını kümülatif olasılığa göre sınırlar.

Not: Varsayılan değer modele göre değişir. getModel işlevini döndüren Model işlevinin Model.top_p özelliğine bakın.

topK integer

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.

Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.

Top-k örneklemesi, en olası topK jeton grubunu dikkate alır. Varsayılan olarak 40 değerine ayarlanır.

Not: Varsayılan değer modele göre değişir. Model işlevinin Model.top_k özelliğinde, getModel işlevi döndürülür.

Yanıt gövdesi

Başarılıysa yanıt metni, GenerateTextResponse öğesinin bir örneğini içerir.

Yöntem: models.countTextTokens

Bir modelin kelime parçalayıcısını bir metinde çalıştırır ve jeton sayısını döndürür.

Uç nokta

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Yol parametreleri

model string

Zorunlu. Modelin kaynak adı. Bu, modelin kullanacağı kimliktir.

Bu ad, models.list yöntemi tarafından döndürülen bir model adıyla eşleşmelidir.

Biçim: models/{model} models/{model} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
prompt object (TextPrompt)

Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.

Yanıt gövdesi

models.countTextTokens tarafından verilen yanıt.

prompt için modelin tokenCount değerini döndürür.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
tokenCount integer

model öğesinin, prompt öğesini belirteceği jeton sayısı.

Her zaman pozitiftir.

JSON gösterimi
{
  "tokenCount": integer
}

Yöntem: model.generateMessage

MessagePrompt girişi verildiğinde modelden bir yanıt oluşturur.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Yol parametreleri

model string

Zorunlu. Kullanılacak modelin adı.

Biçim: name=models/{model}. models/{model} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
prompt object (MessagePrompt)

Zorunlu. Modele istem olarak verilen yapılandırılmış metin girişi.

Model, bir istem verildiğinde tartışmadaki bir sonraki mesajın ne olacağını tahmin ederek döndürür.

temperature number

İsteğe bağlı. Çıkışın rastgeleliğini kontrol eder.

Değerler [0.0,1.0]'ten büyük olabilir ([0.0,1.0] dahil). 1.0 değerine yakın bir değer daha çeşitli yanıtlar üretirken 0.0 değerine yakın bir değer genellikle modelden daha az şaşırtıcı yanıtlar alınmasına neden olur.

candidateCount integer

İsteğe bağlı. Oluşturulan ve döndürülecek yanıt mesajlarının sayısı.

Bu değer [1, 8] ile arasında (değerler dahil) olmalıdır. Politika ayarlanmadan bırakılırsa varsayılan olarak 1 ayarlanır.

topP number

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.

Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.

Çekirdek örnekleme, olasılık toplamı en az topP olan en küçük jeton grubunu dikkate alır.

topK integer

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.

Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.

Top-k örneklemesi, en olası topK jeton grubunu dikkate alır.

Yanıt gövdesi

Modelin yanıtı.

Bunlara aday mesajları ve görüşme geçmişi de kronolojik olarak sıralanmış mesajlar biçiminde dahildir.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
candidates[] object (Message)

Modelden gelen yanıt mesajları.

messages[] object (Message)

Model tarafından kullanılan görüşme geçmişi.

filters[] object (ContentFilter)

İstem ve yanıt metni için bir içerik filtreleme meta verisi grubu.

Bu parametreler, bir adayın bu yanıttan hangi SafetyCategory tarafından engellendiğini, engellemeyi tetikleyen en düşük HarmProbability değerini ve ilgili kategori için HarmThreshold ayarını gösterir.

JSON gösterimi
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Yöntem: models.countMessageTokens

Bir modelin tokenizer'ını bir dize üzerinde çalıştırır ve jeton sayısını döndürür.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Yol parametreleri

model string

Zorunlu. Modelin kaynak adı. Bu, modelin kullanacağı kimliktir.

Bu ad, models.list yöntemi tarafından döndürülen bir model adıyla eşleşmelidir.

Biçim: models/{model} models/{model} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
prompt object (MessagePrompt)

Zorunlu. Jeton sayısı döndürülecek olan istem.

Yanıt gövdesi

models.countMessageTokens yanıtı.

prompt için modelin tokenCount değerini döndürür.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
tokenCount integer

model'ın prompt'u parçalara ayırdığı jeton sayısı.

Her zaman pozitiftir.

JSON gösterimi
{
  "tokenCount": integer
}

Yöntem: models.embedText

Giriş mesajı verilen modelden bir yerleştirme oluşturur.

Uç nokta

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Yol parametreleri

model string

Zorunlu. model=modeller/{model} biçimiyle kullanılacak model adı. models/{model} biçimindedir.

İstek içeriği

İstek gövdesi aşağıdaki yapıya sahip verileri içerir:

Alanlar
text string

İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metni.

Yanıt gövdesi

EmbedTextRequest isteğinin yanıtı.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
embedding object (Embedding)

Yalnızca çıkış. Giriş metninden oluşturulan yerleşik öğe.

JSON gösterimi
{
  "embedding": {
    object (Embedding)
  }
}

Yöntem: model.batchEmbedText

Eşzamanlı bir çağrıda belirtilen giriş metninden birden fazla yerleştirme oluşturur.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Yol parametreleri

model string

Zorunlu. Yerleştirmeyi oluşturmak için kullanılacak Model öğesinin adı. Örnekler: models/embedding-gecko-001 models/{model} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
texts[] string

İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metinleri. Geçerli sınır 100 metindir ve bu değerin üzerinde bir hata verilir.

requests[] object (EmbedTextRequest)

İsteğe bağlı. Grup için istekleri yerleştirin. Yalnızca bir texts veya requests ayarlanabilir.

Yanıt gövdesi

EmbedTextRequest isteğinin yanıtı.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
embeddings[] object (Embedding)

Yalnızca çıkış. Girdi metninden oluşturulan yerleştirilmiş öğeler.

JSON gösterimi
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Modelden yerleştirilmiş bir metin alma isteği.

Alanlar
model string

Zorunlu. model=models/{model} biçimiyle kullanılacak model adı.

text string

İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metni.

JSON gösterimi
{
  "model": string,
  "text": string
}

Yöntem: TuneModels.generateText

Giriş mesajı verilen modelden bir yanıt oluşturur.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Yol parametreleri

model string

Zorunlu. Tamamlamayı oluşturmak için kullanılacak Model veya TunedModel öğesinin adı. Örnekler: model/text-bison-001 bölümlüModeller/sentence-generative-u3b7m tunedModels/{tunedmodel} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
prompt object (TextPrompt)

Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.

Bir istem verildiğinde model, giriş metninin tamamlandığını tahmin ettiği bir Metin Tamamlama yanıtı oluşturur.

safetySettings[] object (SafetySetting)

İsteğe bağlı. Güvenli olmayan içeriği engellemek için kullanılan benzersiz SafetySetting örnekleri listesi.

GenerateTextRequest.prompt ve GenerateTextResponse.candidates'te uygulanacak. Her SafetyCategory türü için birden fazla ayar olmamalıdır. API, bu ayarlar tarafından belirlenen eşikleri karşılamayan tüm istemleri ve yanıtları engeller. Bu liste, safetySettings içinde belirtilen her SafetyCategory için varsayılan ayarları geçersiz kılar. Listede belirli bir SafetyCategory için SafetySetting sağlanmamışsa API, ilgili kategorinin varsayılan güvenlik ayarını kullanır. Metin hizmetinde HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_GEDANROUS zarar kategorileri desteklenir.

stopSequences[] string

Çıktı oluşturmayı durduracak karakter dizisi grubu (en fazla 5). Belirtilirse API, bir durdurma sırasının ilk görünümünde durur. Durdurma sırası, yanıtın bir parçası olarak dahil edilmez.

temperature number

İsteğe bağlı. Çıkışın rastgeleliğini kontrol eder. Not: Varsayılan değer modele göre değişir. getModel işlevini döndüren Model işlevinin Model.temperature özelliğine bakın.

Değerler [0,0;1,0] aralığında olabilir. 1,0'a yakın bir değer, daha çeşitli ve yaratıcı yanıtlar üretirken 0,0'a yakın bir değer genellikle modelden daha basit yanıtlar alınmasına neden olur.

candidateCount integer

İsteğe bağlı. Döndürülecek oluşturulan yanıt sayısı.

Bu değer, [1, 8] arasında (bu değerler dahil) olmalıdır. Politika ayarlanmadan bırakılırsa varsayılan olarak 1 değerine ayarlanır.

maxOutputTokens integer

İsteğe bağlı. Bir adaya dahil edilecek maksimum jeton sayısı.

Politika ayarlanmadan bırakılırsa varsayılan olarak Model spesifikasyonunda belirtilen çıkışTokenLimit değeri kullanılır.

topP number

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.

Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.

Jetonlar, atanan olasılıklara göre sıralanır. Böylece yalnızca en olası jetonlar dikkate alınır. Top-k örnekleme, dikkate alınacak maksimum jeton sayısını doğrudan sınırlar. Nucleus örnekleme ise jeton sayısını kümülatif olasılığa göre sınırlar.

Not: Varsayılan değer modele göre değişir. getModel işlevini döndüren Model işlevinin Model.top_p özelliğine bakın.

topK integer

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.

Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.

Top-k örneklemesi, en olası topK jeton grubunu dikkate alır. Varsayılan olarak 40 değerine ayarlanır.

Not: Varsayılan değer modele göre değişir. Model işlevinin Model.top_k özelliğinde, getModel işlevi döndürülür.

Yanıt gövdesi

Başarılıysa yanıt metni, GenerateTextResponse öğesinin bir örneğini içerir.

ContentFilter

Tek bir isteğin işlenmesiyle ilişkili içerik filtreleme meta verileri.

ContentFilter, bir neden ve isteğe bağlı bir destekleyici dize içerir. Nedeni belirtilmemiş olabilir.

Alanlar
reason enum (BlockedReason)

İçeriğin istek işleme sırasında engellenmesinin nedeni.

message string

Filtreleme davranışını daha ayrıntılı olarak açıklayan bir dize.

JSON gösterimi
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

İçeriğin engellenmesinin nedenlerinin bir listesi.

Sıralamalar
BLOCKED_REASON_UNSPECIFIED Engelleme nedeni belirtilmedi.
SAFETY İçerik, güvenlik ayarları tarafından engellendi.
OTHER İçerik engellendi ancak nedeni kategorize edilmemiş.

Yerleştirme

Yerleşimi temsil eden kayan nokta değerlerinin listesi.

Alanlar
value[] number

Yerleştirme değerleri.

JSON gösterimi
{
  "value": [
    number
  ]
}

Mesaj

Yapılandırılmış metnin temel birimi.

Message, Message öğesinin author ve content öğelerini içerir.

author, modele metin olarak beslenen mesajları etiketlemek için kullanılır.

Alanlar
author string

İsteğe bağlı. Bu mesajın yazarı.

Bu, modele metin olarak aktarıldığında bu Mesajın içeriğinin etiketlenmesi için bir anahtar görevi görür.

Yazar, herhangi bir alfanümerik dize olabilir.

content string

Zorunlu. Yapılandırılmış Message öğesinin metin içeriği.

citationMetadata object (CitationMetadata)

Yalnızca çıkış. Bu Message içinde, model tarafından oluşturulmuş content için alıntı bilgileri.

Bu Message, modelin çıktısı olarak oluşturulduysa bu alan, content içindeki herhangi bir metin için ilişkilendirme bilgileriyle doldurulabilir. Bu alan yalnızca çıkışta kullanılır.

JSON gösterimi
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

Modele istem olarak iletilen tüm yapılandırılmış giriş metni.

MessagePrompt, sohbet için bağlam sağlayan yapılandırılmış bir alan grubu, modeli farklı şekillerde yanıt vermeye hazırlayan kullanıcı girişi/model çıkışı mesaj çifti örnekleri ve kullanıcı ile model arasındaki sohbetin sıralı dönüşlerini temsil eden sohbet geçmişini veya mesaj listesini içerir.

Alanlar
context string

İsteğe bağlı. Yanıtı temellendirmek için önce modele sağlanması gereken metin.

Boş değilse bu context, examples ve messages'den önce modele verilir. Sürekliliği sağlamak için context kullanırken her istekte bu özelliği sağladığınızdan emin olun.

Bu alan, bağlam sağlamak ve yanıtlara rehberlik etmek için modele verdiğiniz istemin açıklaması olabilir. Örnekler: "İfadeyi İngilizceden Fransızcaya çevir." veya "Bir ifadede duyguyu mutlu, üzgün veya nötr olarak sınıflandırın."

Toplam giriş boyutu modelin inputTokenLimit değerini aşarsa ve giriş isteği kısaltılırsa bu alana dahil edilen her şey ileti geçmişine göre öncelikli olur.

examples[] object (Example)

İsteğe bağlı. Modelin oluşturması gerekenlerle ilgili örnekler.

Buna hem kullanıcı girişi hem de modelin taklit etmesi gereken yanıt dahildir.

Bu examples, messages'daki geçmişe göre öncelikli olmaları dışında sohbet mesajlarıyla aynı şekilde işlenir: Toplam giriş boyutu modelin inputTokenLimit değerini aşarsa giriş kısaltılır. Öğeler examples tarihinden önce messages'ten kaldırılacak.

messages[] object (Message)

Zorunlu. Kronolojik olarak sıralanmış son sohbet geçmişinin anlık görüntüsü.

İki yazar arasında geçiş yapar.

Toplam giriş boyutu modelin inputTokenLimit değerini aşarsa giriş kısaltılır: En eski öğeler messages'dan çıkarılır.

JSON gösterimi
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Örnek

Modele talimat vermek için kullanılan bir giriş/çıkış örneği.

Modelin nasıl yanıt vermesi veya yanıtı biçimlendirmesi gerektiğini gösterir.

Alanlar
input object (Message)

Zorunlu. Kullanıcıdan gelen bir giriş Message örneği.

output object (Message)

Zorunlu. Giriş verildiğinde modelin ne tür bir çıkış vermesi gerektiğini gösteren örnek.

JSON gösterimi
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

Aday tamamlamalar dahil olmak üzere modelden gelen yanıt.

Alanlar
candidates[] object (TextCompletion)

Modelden Aday yanıtları.

filters[] object (ContentFilter)

İstem ve yanıt metni için bir içerik filtreleme meta verisi grubu.

Bu parametreler, bir adayın bu yanıttan hangi SafetyCategory tarafından engellendiğini, engellemeyi tetikleyen en düşük HarmProbability değerini ve ilgili kategori için HarmThreshold ayarını gösterir. Bu, SafetySettings ile ilgili olarak en az 1 yanıtın engellemesini kaldırmak için yapılması gereken en küçük değişikliği gösterir.

Engelleme, istekteki SafetySettings (veya API'nin varsayılan SafetySettings) tarafından yapılandırılır.

safetyFeedback[] object (SafetyFeedback)

İçerik filtrelemeyle ilgili güvenlik geri bildirimlerini döndürür.

JSON gösterimi
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Bir modelden döndürülen çıkış metni.

Alanlar
output string

Yalnızca çıkış. Modelden döndürülen oluşturulmuş metin.

safetyRatings[] object (SafetyRating)

Bir yanıtın güvenliğine ilişkin derecelendirmeler.

Kategori başına en fazla bir derecelendirme vardır.

citationMetadata object (CitationMetadata)

Yalnızca çıkış. Bu TextCompletion'da model tarafından oluşturulan output için alıntı bilgileri.

Bu alan, output özelliğine dahil edilen herhangi bir metin için atıf bilgileriyle doldurulabilir.

JSON gösterimi
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

İsteğin tamamı için güvenlik geri bildirimi.

Bu alan, giriş ve/veya yanıttaki içerik güvenlik ayarları nedeniyle engellenmişse doldurulur. SafetyFeedback her HarmCategory için mevcut olmayabilir. Her SafetyFeedback, istek tarafından kullanılan güvenlik ayarlarının yanı sıra bir sonuç döndürmek için izin verilmesi gereken en düşük HarmProbability değerini döndürür.

Alanlar
rating object (SafetyRating)

İçerikten değerlendirilen güvenlik derecelendirmesi.

setting object (SafetySetting)

İsteğe uygulanan güvenlik ayarları.

JSON gösterimi
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Modele istem olarak verilen metin.

Model, metin tamamlama oluşturmak için bu TextPrompt'u kullanır.

Alanlar
text string

Zorunlu. İstem metni.

JSON gösterimi
{
  "text": string
}