PaLM (decommissioned)

Yöntem: models.generateText

Giriş mesajı verildiğinde modelden bir yanıt oluşturur.

Uç nokta

yayın https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Yol parametreleri

model string

Zorunlu. Tamamlamayı oluşturmak için kullanılacak Model veya TunedModel öğesinin adı. Örnekler: models/text-bison-001 tunedModels/sentence-translator-u3b7m models/{model} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
prompt object (TextPrompt)

Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.

Model, bir istem verildiğinde giriş metninin tamamlanması olarak tahmin ettiği bir TextCompletion yanıtı oluşturur.

safetySettings[] object (SafetySetting)

İsteğe bağlı. Güvenli olmayan içeriği engellemek için kullanılan benzersiz SafetySetting örnekleri listesi.

GenerateTextRequest.prompt ve GenerateTextResponse.candidates'te uygulanacak. Her SafetyCategory türü için birden fazla ayar olmamalıdır. API, bu ayarlar tarafından belirlenen eşikleri karşılamayan tüm istemleri ve yanıtları engeller. Bu liste, safetySettings içinde belirtilen her SafetyCategory için varsayılan ayarları geçersiz kılar. Listede belirli bir SafetyCategory için SafetySetting sağlanmamışsa API, söz konusu kategorinin varsayılan güvenlik ayarını kullanır. Metin hizmetinde HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS zarar kategorileri desteklenir.

stopSequences[] string

Çıktı oluşturmayı durduracak karakter dizisi grubu (en fazla 5). Belirtilen durumda API, bir durdurma dizisinin ilk görünümünde durur. Durdurma sırası, yanıtın bir parçası olarak dahil edilmez.

temperature number

İsteğe bağlı. Çıktının rastgeleliğini kontrol eder. Not: Varsayılan değer modele göre değişir. getModel işlevini döndüren Model işlevinin Model.temperature özelliğine bakın.

Değerler [0,0; 1,0] aralığında olabilir. 1,0'a yakın bir değer, daha çeşitli ve yaratıcı yanıtlar üretirken 0,0'a yakın bir değer genellikle modelden daha basit yanıtlar alınmasına neden olur.

candidateCount integer

İsteğe bağlı. Döndürülecek oluşturulan yanıt sayısı.

Bu değer, [1, 8] dahil bu sayılar arasında olmalıdır. Ayarlanmadan bırakılırsa varsayılan olarak 1 olur.

maxOutputTokens integer

İsteğe bağlı. Bir adaya eklenebilecek maksimum jeton sayısı.

Bu ayar ayarlanmamışsa varsayılan olarak Model spesifikasyonunda belirtilen outputTokenLimit değeri kullanılır.

topP number

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.

Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.

Jetonlar, yalnızca en olası jetonların dikkate alınması için atanan olasılıklarına göre sıralanır. En iyi k örnekleme, dikkate alınacak maksimum jeton sayısını doğrudan sınırlar. Nucleus örnekleme ise jeton sayısını kümülatif olasılığa göre sınırlar.

Not: Varsayılan değer modele göre değişir. getModel işlevini döndüren Model işlevinin Model.top_p özelliğine bakın.

topK integer

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.

Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.

En yüksek k örnekleme, en olası topK jeton kümesini dikkate alır. Varsayılan olarak 40 değerine ayarlanır.

Not: Varsayılan değer modele göre değişir. getModel işlevini döndüren Model işlevinin Model.top_k özelliğine bakın.

Yanıt gövdesi

Başarılıysa yanıt metni, GenerateTextResponse öğesinin bir örneğini içerir.

Yöntem: models.countTextTokens

Bir modelin kelime parçalayıcısını bir metinde çalıştırır ve jeton sayısını döndürür.

Uç nokta

yayın https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Yol parametreleri

model string

Zorunlu. Modelin kaynak adı. Bu, modelin kullanacağı bir kimlik görevi görür.

Bu ad, models.list yöntemi tarafından döndürülen bir model adıyla eşleşmelidir.

Biçim: models/{model} models/{model} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
prompt object (TextPrompt)

Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.

Yanıt gövdesi

models.countTextTokens tarafından verilen yanıt.

prompt için modelin tokenCount değerini döndürür.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
tokenCount integer

model'ın prompt'u parçalara ayırdığı jeton sayısı.

Her zaman pozitiftir.

JSON gösterimi
{
  "tokenCount": integer
}

Yöntem: models.generateMessage

MessagePrompt girişi verildiğinde modelden bir yanıt oluşturur.

Uç nokta

yayın https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Yol parametreleri

model string

Zorunlu. Kullanılacak modelin adı.

Biçim: name=models/{model}. models/{model} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
prompt object (MessagePrompt)

Zorunlu. Modele istem olarak verilen yapılandırılmış metin girişi.

Model, bir istem verildiğinde sohbetteki bir sonraki mesajın ne olacağını tahmin ederek döndürür.

temperature number

İsteğe bağlı. Çıktının rastgeleliğini kontrol eder.

Değerler [0.0,1.0]'ten büyük olabilir ([0.0,1.0] dahil). 1.0 değerine yakın bir değer daha çeşitli yanıtlar üretirken 0.0 değerine yakın bir değer genellikle modelden daha az şaşırtıcı yanıtlar alınmasına neden olur.

candidateCount integer

İsteğe bağlı. Döndürülecek oluşturulan yanıt mesajlarının sayısı.

Bu değer [1, 8] ile arasında (değerler dahil) olmalıdır. Ayarlanmazsa varsayılan olarak 1 olur.

topP number

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.

Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.

Çekirdek örnekleme, olasılık toplamı en az topP olan en küçük jeton grubunu dikkate alır.

topK integer

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.

Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.

En yüksek k örnekleme, en olası topK jeton kümesini dikkate alır.

Yanıt gövdesi

Modelin yanıtı.

Bu, kronolojik olarak sıralanmış mesajlar biçiminde olası mesajları ve ileti dizisi geçmişini içerir.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
candidates[] object (Message)

Modelden gelen olası yanıt mesajları.

messages[] object (Message)

Model tarafından kullanılan görüşme geçmişi.

filters[] object (ContentFilter)

İstem ve yanıt metni için bir içerik filtreleme meta veri grubu.

Bu, bir adayın bu yanıtta hangi SafetyCategory'ler tarafından engellendiğini, engellemeyi tetikleyen en düşük HarmProbability değerini ve ilgili kategorinin HarmThreshold ayarını gösterir.

JSON gösterimi
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Yöntem: models.countMessageTokens

Bir modelin dize parçalayıcısını bir dize üzerinde çalıştırır ve jeton sayısını döndürür.

Uç nokta

yayın https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Yol parametreleri

model string

Zorunlu. Modelin kaynak adı. Bu, modelin kullanacağı bir kimlik görevi görür.

Bu ad, models.list yöntemi tarafından döndürülen bir model adıyla eşleşmelidir.

Biçim: models/{model} models/{model} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
prompt object (MessagePrompt)

Zorunlu. Jeton sayısı döndürülecek istem.

Yanıt gövdesi

models.countMessageTokens tarafından verilen yanıt.

prompt için modelin tokenCount değerini döndürür.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
tokenCount integer

model'ın prompt'u parçalara ayırdığı jeton sayısı.

Her zaman pozitiftir.

JSON gösterimi
{
  "tokenCount": integer
}

Yöntem: models.embedText

Giriş mesajı verilen modelden bir yerleştirme oluşturur.

Uç nokta

yayın https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Yol parametreleri

model string

Zorunlu. model=models/{model} biçimiyle kullanılacak model adı. models/{model} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
text string

İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metni.

Yanıt gövdesi

EmbedTextRequest isteğinin yanıtı.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
embedding object (Embedding)

Yalnızca çıkış. Giriş metninden oluşturulan yerleşik öğe.

JSON gösterimi
{
  "embedding": {
    object (Embedding)
  }
}

Yöntem: models.batchEmbedText

Senkron çağrıda, modele verilen giriş metninden birden fazla yerleştirilmiş öğe oluşturur.

Uç nokta

yayın https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Yol parametreleri

model string

Zorunlu. Yerleşim oluşturmak için kullanılacak Model öğesinin adı. Örnekler: models/embedding-gecko-001 models/{model} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
texts[] string

İsteğe bağlı. Modelin yerleştirilmiş öğeye dönüştüreceği serbest biçimli giriş metinleri. Mevcut sınır 100 metindir. Bu sınırı aşarsanız hata mesajı alırsınız.

requests[] object (EmbedTextRequest)

İsteğe bağlı. Grup için istekleri yerleştirin. Yalnızca bir texts veya requests ayarlanabilir.

Yanıt gövdesi

EmbedTextRequest isteğinin yanıtı.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
embeddings[] object (Embedding)

Yalnızca çıkış. Giriş metninden oluşturulan gömmeler.

JSON gösterimi
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Modelden metin yerleştirme isteği gönderin.

Alanlar
model string

Zorunlu. model=models/{model} biçimiyle kullanılacak model adı.

text string

İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metni.

JSON gösterimi
{
  "model": string,
  "text": string
}

Yöntem: tunedModels.generateText

Giriş mesajı verildiğinde modelden bir yanıt oluşturur.

Uç nokta

yayın https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Yol parametreleri

model string

Zorunlu. Tamamlamayı oluşturmak için kullanılacak Model veya TunedModel öğesinin adı. Örnekler: models/text-bison-001 tunedModels/sentence-translator-u3b7m tunedModels/{tunedmodel} biçimindedir.

İstek içeriği

İstek metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
prompt object (TextPrompt)

Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.

Model, bir istem verildiğinde giriş metninin tamamlanması olarak tahmin ettiği bir TextCompletion yanıtı oluşturur.

safetySettings[] object (SafetySetting)

İsteğe bağlı. Güvenli olmayan içeriği engellemek için kullanılan benzersiz SafetySetting örnekleri listesi.

GenerateTextRequest.prompt ve GenerateTextResponse.candidates'te uygulanacak. Her SafetyCategory türü için birden fazla ayar olmamalıdır. API, bu ayarlar tarafından belirlenen eşikleri karşılamayan tüm istemleri ve yanıtları engeller. Bu liste, safetySettings içinde belirtilen her SafetyCategory için varsayılan ayarları geçersiz kılar. Listede belirli bir SafetyCategory için SafetySetting sağlanmamışsa API, söz konusu kategorinin varsayılan güvenlik ayarını kullanır. Metin hizmetinde HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS zarar kategorileri desteklenir.

stopSequences[] string

Çıktı oluşturmayı durduracak karakter dizisi grubu (en fazla 5). Belirtilen durumda API, bir durdurma dizisinin ilk görünümünde durur. Durdurma sırası, yanıtın bir parçası olarak dahil edilmez.

temperature number

İsteğe bağlı. Çıktının rastgeleliğini kontrol eder. Not: Varsayılan değer modele göre değişir. getModel işlevini döndüren Model işlevinin Model.temperature özelliğine bakın.

Değerler [0,0; 1,0] aralığında olabilir. 1,0'a yakın bir değer, daha çeşitli ve yaratıcı yanıtlar üretirken 0,0'a yakın bir değer genellikle modelden daha basit yanıtlar alınmasına neden olur.

candidateCount integer

İsteğe bağlı. Döndürülecek oluşturulan yanıt sayısı.

Bu değer, [1, 8] dahil bu sayılar arasında olmalıdır. Ayarlanmadan bırakılırsa varsayılan olarak 1 olur.

maxOutputTokens integer

İsteğe bağlı. Bir adaya eklenebilecek maksimum jeton sayısı.

Bu ayar ayarlanmamışsa varsayılan olarak Model spesifikasyonunda belirtilen outputTokenLimit değeri kullanılır.

topP number

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum kümülatif jeton olasılığı.

Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.

Jetonlar, yalnızca en olası jetonların dikkate alınması için atanan olasılıklarına göre sıralanır. En iyi k örnekleme, dikkate alınacak maksimum jeton sayısını doğrudan sınırlar. Nucleus örnekleme ise jeton sayısını kümülatif olasılığa göre sınırlar.

Not: Varsayılan değer modele göre değişir. getModel işlevini döndüren Model işlevinin Model.top_p özelliğine bakın.

topK integer

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.

Model, Top-k ve çekirdek örneklemeyi birlikte kullanır.

En yüksek k örnekleme, en olası topK jeton kümesini dikkate alır. Varsayılan olarak 40 değerine ayarlanır.

Not: Varsayılan değer modele göre değişir. getModel işlevini döndüren Model işlevinin Model.top_k özelliğine bakın.

Yanıt gövdesi

Başarılıysa yanıt metni, GenerateTextResponse öğesinin bir örneğini içerir.

ContentFilter

Tek bir isteğin işlenmesiyle ilişkili içerik filtreleme meta verileri.

ContentFilter, bir neden ve isteğe bağlı bir destekleyici dize içerir. Neden belirtilmeyebilir.

Alanlar
reason enum (BlockedReason)

İçeriğin istek işleme sırasında engellenmesinin nedeni.

message string

Filtreleme davranışını daha ayrıntılı olarak açıklayan bir dize.

JSON gösterimi
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

İçeriğin engellenmesinin olası nedenlerinin listesi.

Sıralamalar
BLOCKED_REASON_UNSPECIFIED Engelleme nedeni belirtilmedi.
SAFETY İçerik, güvenlik ayarları tarafından engellendi.
OTHER İçerik engellendi ancak neden kategorize edilmedi.

Yerleştirme

Yerleşimi temsil eden kayan noktaların listesi.

Alanlar
value[] number

Yerleştirme değerleri.

JSON gösterimi
{
  "value": [
    number
  ]
}

Mesaj

Yapılandırılmış metnin temel birimi.

Message, bir author ve Message'nin content öğesini içerir.

author, modele metin olarak beslenen mesajları etiketlemek için kullanılır.

Alanlar
author string

İsteğe bağlı. Bu iletiyi yazan kişi.

Bu, modele metin olarak beslendiğinde bu Mesaj'ın içeriğini etiketlemek için bir anahtar görevi görür.

Yazar, herhangi bir alfanümerik dize olabilir.

content string

Zorunlu. Yapılandırılmış Message öğesinin metin içeriği.

citationMetadata object (CitationMetadata)

Yalnızca çıkış. Bu Message'da model tarafından oluşturulan content için alıntı bilgileri.

Bu Message, modelden çıkış olarak oluşturulduysa bu alan, content'a dahil edilen tüm metinler için ilişkilendirme bilgileriyle doldurulabilir. Bu alan yalnızca çıkışta kullanılır.

JSON gösterimi
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

Modele istem olarak iletilen tüm yapılandırılmış giriş metni.

MessagePrompt, sohbet için bağlam sağlayan yapılandırılmış bir alan grubu, modeli farklı şekillerde yanıt vermeye hazırlayan kullanıcı girişi/model çıkışı mesaj çifti örnekleri ve kullanıcı ile model arasındaki sohbetin sıralı dönüşlerini temsil eden sohbet geçmişi veya mesaj listesini içerir.

Alanlar
context string

İsteğe bağlı. Yanıtı temellendirmek için önce modele sağlanması gereken metin.

Boş değilse bu context, examples ve messages'den önce modele verilir. context kullanırken sürekliliği sağlamak için her istekle birlikte sağladığınızdan emin olun.

Bu alan, bağlam sağlamak ve yanıtları yönlendirmek için modele verdiğiniz istemin açıklaması olabilir. Örnekler: "İfadeyi İngilizceden Fransızcaya çevir." veya "Bir ifadenin duygusunu mutlu, üzgün veya nötr olarak sınıflandır."

Toplam giriş boyutu modelin inputTokenLimit değerini aşarsa ve giriş isteği kısaltılırsa bu alana dahil edilen her şey ileti geçmişine göre öncelikli olur.

examples[] object (Example)

İsteğe bağlı. Modelin oluşturması gereken örnekler.

Buna hem kullanıcı girişi hem de modelin taklit etmesi gereken yanıt dahildir.

Bu examples, messages'daki geçmişe göre öncelikli olmaları dışında sohbet mesajlarıyla aynı şekilde işlenir: Toplam giriş boyutu modelin inputTokenLimit değerini aşarsa giriş kısaltılır. Öğeler examples tarihinden önce messages'ten kaldırılacak.

messages[] object (Message)

Zorunlu. Son görüşme geçmişinin kronolojik olarak sıralanmış anlık görüntüsü.

İki yazar arasında geçiş yapar.

Toplam giriş boyutu modelin inputTokenLimit değerini aşarsa giriş kısaltılır: En eski öğeler messages'dan çıkarılır.

JSON gösterimi
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Örnek

Modele talimat vermek için kullanılan bir giriş/çıkış örneği.

Modelin nasıl yanıt vermesi veya yanıtını nasıl biçimlendirmesi gerektiğini gösterir.

Alanlar
input object (Message)

Zorunlu. Kullanıcıdan gelen Message girişi örneği.

output object (Message)

Zorunlu. Giriş verildiğinde modelin ne tür bir çıkış vermesi gerektiğini gösteren örnek.

JSON gösterimi
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

Aday tamamlamalar dahil olmak üzere modelden gelen yanıt.

Alanlar
candidates[] object (TextCompletion)

Modelin önerdiği yanıtlar.

filters[] object (ContentFilter)

İstem ve yanıt metni için bir içerik filtreleme meta veri grubu.

Bu, bir adayın bu yanıtta hangi SafetyCategory'ler tarafından engellendiğini, engellemeyi tetikleyen en düşük HarmProbability değerini ve ilgili kategorinin HarmThreshold ayarını gösterir. Bu, en az 1 yanıtın engellemesinin kaldırılması için SafetySettings'te yapılması gereken en küçük değişikliği gösterir.

Engelleme, istekteki SafetySettings (veya API'nin varsayılan SafetySettings) tarafından yapılandırılır.

safetyFeedback[] object (SafetyFeedback)

İçerik filtrelemeyle ilgili tüm güvenlik geri bildirimlerini döndürür.

JSON gösterimi
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Bir modelden döndürülen çıkış metni.

Alanlar
output string

Yalnızca çıkış. Modelden döndürülen oluşturulmuş metin.

safetyRatings[] object (SafetyRating)

Bir yanıtın güvenliğine ilişkin derecelendirmeler.

Kategori başına en fazla bir derecelendirme vardır.

citationMetadata object (CitationMetadata)

Yalnızca çıkış. Bu TextCompletion'da model tarafından oluşturulan output için alıntı bilgileri.

Bu alan, output öğesine dahil edilen herhangi bir metin için ilişkilendirme bilgileriyle doldurulabilir.

JSON gösterimi
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

İsteğin tamamı için güvenlik geri bildirimi.

Giriş ve/veya yanıttaki içerik güvenlik ayarları nedeniyle engellenirse bu alan doldurulur. SafetyFeedback, her HarmCategory için mevcut olmayabilir. Her SafetyFeedback, istek tarafından kullanılan güvenlik ayarlarının yanı sıra bir sonuç döndürmek için izin verilmesi gereken en düşük HarmProbability değerini döndürür.

Alanlar
rating object (SafetyRating)

İçerikten değerlendirilen güvenlik derecelendirmesi.

setting object (SafetySetting)

İsteğe uygulanan güvenlik ayarları.

JSON gösterimi
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Modele istem olarak verilen metin.

Model, metin tamamlama oluşturmak için bu metin isteminden yararlanır.

Alanlar
text string

Zorunlu. İstem metni.

JSON gösterimi
{
  "text": string
}