PaLM (deprecated)

Yöntem: model.generateText

Giriş mesajı verilen modelden bir yanıt oluşturur.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Yol parametreleri

model string

Zorunlu. Tamamlamayı oluşturmak için kullanılacak Model veya TunedModel adı. Örnekler: modeller/text-bison-001 bölümlüModeller/sentence-generative-u3b7m models/{model} biçimindedir.

İstek içeriği

İstek gövdesi, aşağıdaki yapıya sahip verileri içerir:

Alanlar
prompt object (TextPrompt)

Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.

Bir istem verildiğinde model, giriş metninin tamamlandığını tahmin ettiği bir Metin Tamamlama yanıtı oluşturur.

safetySettings[] object (SafetySetting)

İsteğe bağlı. Güvenli olmayan içeriği engellemek için benzersiz SafetySetting örneklerinin listesi.

GenerateTextRequest.prompt ve GenerateTextResponse.candidates cihazlarda zorunlu kılınacak. Her SafetyCategory türü için birden fazla ayar olmamalıdır. API, bu ayarlarla belirlenen eşikleri karşılamayan tüm istemleri ve yanıtları engeller. Bu liste, SafetySettings'te belirtilen her bir SafetyCategory için varsayılan ayarları geçersiz kılar. Listede sağlanan belirli bir SafetyCategory için SafetySetting yoksa API, söz konusu kategori için varsayılan güvenlik ayarını kullanır. Metin hizmetinde HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_GEDANROUS zarar kategorileri desteklenir.

stopSequences[] string

Çıkış oluşturmayı durduracak karakter dizileri kümesi (en fazla 5). Belirtilirse API, bir durdurma sırasının ilk görünümünde durur. Durdurma sırası yanıtın bir parçası olarak dahil edilmez.

temperature number

İsteğe bağlı. Çıkışın rastgeleliğini kontrol eder. Not: Varsayılan değer modele göre değişir. Model işlevinin Model.temperature özelliğinde, getModel işlevi döndürülür.

Değerler [0,0,1,0] dahil olmak üzere bu değerler arasında değişebilir. 1,0'a yakın bir değer, daha çeşitli ve yaratıcı yanıtlar sunarken 0,0'a yakın bir değer genellikle modelin daha doğrudan yanıt vermesini sağlar.

candidateCount integer

İsteğe bağlı. Döndürülecek oluşturulan yanıtların sayısı.

Bu değer, [1, 8] arasında (bu değerler dahil) olmalıdır. Politika ayarlanmadan bırakılırsa varsayılan olarak 1 değerine ayarlanır.

maxOutputTokens integer

İsteğe bağlı. Bir adaya dahil edilecek maksimum jeton sayısı.

Politika ayarlanmadan bırakılırsa varsayılan olarak Model spesifikasyonunda belirtilen çıkışTokenLimit değeri kullanılır.

topP number

İsteğe bağlı. Örnekleme sırasında dikkate alınacak jetonların maksimum kümülatif olasılığı.

Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.

Jetonlar, atanan olasılıklara göre sıralanır. Böylece yalnızca en olası jetonlar dikkate alınır. Top-k örneklemesi, dikkate alınacak maksimum jeton sayısını doğrudan sınırlandırırken Nucleus örneklemesi, kümülatif olasılığa dayalı olarak jeton sayısını sınırlar.

Not: Varsayılan değer modele göre değişir. Model işlevinin Model.top_p özelliğinde, getModel işlevi döndürülür.

topK integer

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.

Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.

Top-k örneklemesi, en olası topK jeton grubunu dikkate alır. Varsayılan değer 40'tır.

Not: Varsayılan değer modele göre değişir. Model işlevinin Model.top_k özelliğinde, getModel işlevi döndürülür.

Yanıt gövdesi

Başarılıysa yanıt metni, GenerateTextResponse öğesinin bir örneğini içerir.

Yöntem: model.countTextTokens

Metin üzerinde bir modelin tokenizer'ını çalıştırır ve jeton sayısını döndürür.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Yol parametreleri

model string

Zorunlu. Modelin kaynak adı. Bu, modelin kullanacağı bir kimlik görevi görür.

Bu ad, models.list yöntemi tarafından döndürülen bir model adıyla eşleşmelidir.

Biçim: models/{model} models/{model} biçimindedir.

İstek içeriği

İstek gövdesi, aşağıdaki yapıya sahip verileri içerir:

Alanlar
prompt object (TextPrompt)

Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.

Yanıt gövdesi

models.countTextTokens yanıtı.

prompt için modelin tokenCount değerini döndürür.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
tokenCount integer

model öğesinin, prompt öğesini belirteceği jeton sayısı.

Her zaman olumsuz olamaz.

JSON gösterimi
{
  "tokenCount": integer
}

Yöntem: projects.generateMessage

MessagePrompt girişine sahip modelden bir yanıt oluşturur.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Yol parametreleri

model string

Zorunlu. Kullanılacak modelin adı.

Biçim: name=models/{model}. models/{model} biçimindedir.

İstek içeriği

İstek gövdesi, aşağıdaki yapıya sahip verileri içerir:

Alanlar
prompt object (MessagePrompt)

Zorunlu. Modele istem olarak verilen yapılandırılmış metin girişi.

Bir istem verildiğinde model, tartışmadaki bir sonraki ileti olacağını tahmin ettiği şeyi döndürür.

temperature number

İsteğe bağlı. Çıkışın rastgeleliğini kontrol eder.

Değerler [0.0,1.0] değerinden yüksek olabilir (bu değerler dahil). 1.0 değerine daha yakın bir değer, daha çeşitli yanıtlar verirken 0.0 değerine daha yakın bir değer genellikle modelin daha az şaşırtıcı yanıtlar vermesini sağlar.

candidateCount integer

İsteğe bağlı. Oluşturulan ve döndürülecek yanıt mesajlarının sayısı.

Bu değer [1, 8] arasında (bu değerler dahil) olmalıdır. Politika ayarlanmadan bırakılırsa varsayılan olarak 1 ayarlanır.

topP number

İsteğe bağlı. Örnekleme sırasında dikkate alınacak jetonların maksimum kümülatif olasılığı.

Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.

Çekirdek örneklemede, olasılık toplamı en az topP olan en küçük jeton kümesi dikkate alınır.

topK integer

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.

Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.

Top-k örneklemesi, en olası topK jeton grubunu dikkate alır.

Yanıt gövdesi

Modelin yanıtı.

Bunlara aday mesajları ve görüşme geçmişi de kronolojik olarak sıralanmış mesajlar biçiminde dahildir.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
candidates[] object (Message)

Modelden gelen yanıt mesajları.

messages[] object (Message)

Model tarafından kullanılan görüşme geçmişi.

filters[] object (ContentFilter)

İstem ve yanıt metni için bir içerik filtreleme meta verisi grubu.

Bu parametreler, bir adayın bu yanıtta hangi SafetyCategory tarafından engellendiğini, engellemeyi tetikleyen en düşük HarmProbability değerini ve ilgili kategori için HarmThreshold ayarını gösterir.

JSON gösterimi
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Yöntem: model.countMessageTokens

Bir modelin tokenizer'ını bir dize üzerinde çalıştırır ve jeton sayısını döndürür.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Yol parametreleri

model string

Zorunlu. Modelin kaynak adı. Bu, modelin kullanacağı bir kimlik görevi görür.

Bu ad, models.list yöntemi tarafından döndürülen bir model adıyla eşleşmelidir.

Biçim: models/{model} models/{model} biçimindedir.

İstek içeriği

İstek gövdesi, aşağıdaki yapıya sahip verileri içerir:

Alanlar
prompt object (MessagePrompt)

Zorunlu. Jeton sayısı döndürülecek olan istem.

Yanıt gövdesi

models.countMessageTokens yanıtı.

prompt için modelin tokenCount değerini döndürür.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
tokenCount integer

model öğesinin, prompt öğesini belirteceği jeton sayısı.

Her zaman olumsuz olamaz.

JSON gösterimi
{
  "tokenCount": integer
}

Yöntem: modeller.embedText

Giriş mesajı verilen modelden bir yerleştirme oluşturur.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Yol parametreleri

model string

Zorunlu. model=modeller/{model} biçimiyle kullanılacak model adı. models/{model} biçimindedir.

İstek içeriği

İstek gövdesi, aşağıdaki yapıya sahip verileri içerir:

Alanlar
text string

İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metni.

Yanıt gövdesi

EmbedTextRequest'e verilen yanıt.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
embedding object (Embedding)

Yalnızca çıkış. Girdi metninden oluşturulan yerleştirme.

JSON gösterimi
{
  "embedding": {
    object (Embedding)
  }
}

Yöntem: model.batchEmbedText

Eşzamanlı bir çağrıda belirtilen giriş metninden birden fazla yerleştirme oluşturur.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Yol parametreleri

model string

Zorunlu. Yerleştirmeyi oluşturmak için kullanılacak Model öğesinin adı. Örnekler: modeller/embedding-gecko-001 models/{model} biçimindedir.

İstek içeriği

İstek gövdesi, aşağıdaki yapıya sahip verileri içerir:

Alanlar
texts[] string

İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metinleri. Geçerli sınır 100 metindir ve bu değerin üzerinde bir hata verilir.

requests[] object (EmbedTextRequest)

İsteğe bağlı. Grup için yerleştirme istekleri. Yalnızca bir texts veya requests ayarlanabilir.

Yanıt gövdesi

EmbedTextRequest'e verilen yanıt.

Başarılı olursa yanıt metni aşağıdaki yapıyla birlikte verileri içerir:

Alanlar
embeddings[] object (Embedding)

Yalnızca çıkış. Girdi metninden oluşturulan yerleştirilmiş öğeler.

JSON gösterimi
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Modelden yerleştirilmiş bir metin alma isteği.

JSON gösterimi
{
  "model": string,
  "text": string
}
Alanlar
model string

Zorunlu. model=modeller/{model} biçimiyle kullanılacak model adı.

text string

İsteğe bağlı. Modelin yerleştirmeye dönüştüreceği serbest biçimli giriş metni.

Yöntem: TuneModels.generateText

Giriş mesajı verilen modelden bir yanıt oluşturur.

Uç nokta

yayınlayacağım https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Yol parametreleri

model string

Zorunlu. Tamamlamayı oluşturmak için kullanılacak Model veya TunedModel adı. Örnekler: modeller/text-bison-001 bölümlüModeller/sentence-generative-u3b7m tunedModels/{tunedmodel} biçimindedir.

İstek içeriği

İstek gövdesi, aşağıdaki yapıya sahip verileri içerir:

Alanlar
prompt object (TextPrompt)

Zorunlu. Modele istem olarak verilen serbest biçimli giriş metni.

Bir istem verildiğinde model, giriş metninin tamamlandığını tahmin ettiği bir Metin Tamamlama yanıtı oluşturur.

safetySettings[] object (SafetySetting)

İsteğe bağlı. Güvenli olmayan içeriği engellemek için benzersiz SafetySetting örneklerinin listesi.

GenerateTextRequest.prompt ve GenerateTextResponse.candidates cihazlarda zorunlu kılınacak. Her SafetyCategory türü için birden fazla ayar olmamalıdır. API, bu ayarlarla belirlenen eşikleri karşılamayan tüm istemleri ve yanıtları engeller. Bu liste, SafetySettings'te belirtilen her bir SafetyCategory için varsayılan ayarları geçersiz kılar. Listede sağlanan belirli bir SafetyCategory için SafetySetting yoksa API, söz konusu kategori için varsayılan güvenlik ayarını kullanır. Metin hizmetinde HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_GEDANROUS zarar kategorileri desteklenir.

stopSequences[] string

Çıkış oluşturmayı durduracak karakter dizileri kümesi (en fazla 5). Belirtilirse API, bir durdurma sırasının ilk görünümünde durur. Durdurma sırası yanıtın bir parçası olarak dahil edilmez.

temperature number

İsteğe bağlı. Çıkışın rastgeleliğini kontrol eder. Not: Varsayılan değer modele göre değişir. Model işlevinin Model.temperature özelliğinde, getModel işlevi döndürülür.

Değerler [0,0,1,0] dahil olmak üzere bu değerler arasında değişebilir. 1,0'a yakın bir değer, daha çeşitli ve yaratıcı yanıtlar sunarken 0,0'a yakın bir değer genellikle modelin daha doğrudan yanıt vermesini sağlar.

candidateCount integer

İsteğe bağlı. Döndürülecek oluşturulan yanıtların sayısı.

Bu değer, [1, 8] arasında (bu değerler dahil) olmalıdır. Politika ayarlanmadan bırakılırsa varsayılan olarak 1 değerine ayarlanır.

maxOutputTokens integer

İsteğe bağlı. Bir adaya dahil edilecek maksimum jeton sayısı.

Politika ayarlanmadan bırakılırsa varsayılan olarak Model spesifikasyonunda belirtilen çıkışTokenLimit değeri kullanılır.

topP number

İsteğe bağlı. Örnekleme sırasında dikkate alınacak jetonların maksimum kümülatif olasılığı.

Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.

Jetonlar, atanan olasılıklara göre sıralanır. Böylece yalnızca en olası jetonlar dikkate alınır. Top-k örneklemesi, dikkate alınacak maksimum jeton sayısını doğrudan sınırlandırırken Nucleus örneklemesi, kümülatif olasılığa dayalı olarak jeton sayısını sınırlar.

Not: Varsayılan değer modele göre değişir. Model işlevinin Model.top_p özelliğinde, getModel işlevi döndürülür.

topK integer

İsteğe bağlı. Örnekleme sırasında dikkate alınacak maksimum jeton sayısı.

Model, birleşik Top-k ve çekirdek örneklemeyi kullanır.

Top-k örneklemesi, en olası topK jeton grubunu dikkate alır. Varsayılan değer 40'tır.

Not: Varsayılan değer modele göre değişir. Model işlevinin Model.top_k özelliğinde, getModel işlevi döndürülür.

Yanıt gövdesi

Başarılıysa yanıt metni, GenerateTextResponse öğesinin bir örneğini içerir.

ContentFilter

Tek bir isteğin işlenmesiyle ilişkili içerik filtreleme meta verileri.

ContentFilter, bir neden ve isteğe bağlı bir destekleyici dize içerir. Nedeni belirtilmemiş olabilir.

JSON gösterimi
{
  "reason": enum (BlockedReason),
  "message": string
}
Alanlar
reason enum (BlockedReason)

İsteğin işlenmesi sırasında içeriğin engellenme nedeni.

message string

Filtreleme davranışını daha ayrıntılı olarak açıklayan bir dize.

BlockedReason

İçeriğin engellenmesinin nedenlerinin bir listesi.

Sıralamalar
BLOCKED_REASON_UNSPECIFIED Engelleme nedeni belirtilmedi.
SAFETY İçerik, güvenlik ayarları tarafından engellendi.
OTHER İçerik engellendi ancak nedeni kategorize edilmemiş.

Yerleştirme

Yerleştirmeyi temsil eden kayan öğelerin listesi.

JSON gösterimi
{
  "value": [
    number
  ]
}
Alanlar
value[] number

Yerleştirme değerleri.

Mesaj

Yapılandırılmış metnin temel birimi.

Message, Message öğesinin author ve content öğelerini içerir.

author, modele metin olarak aktarılan mesajları etiketlemek için kullanılır.

JSON gösterimi
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Alanlar
author string

İsteğe bağlı. Bu İleti'nin yazarı.

Bu, modele metin olarak aktarıldığında bu Mesajın içeriğini etiketlemek için önemli bir anahtar işlevi görür.

Yazar, herhangi bir alfasayısal dize olabilir.

content string

Zorunlu. Yapılandırılmış Message öğesinin metin içeriği.

citationMetadata object (CitationMetadata)

Yalnızca çıkış. Bu Message içinde, model tarafından oluşturulmuş content için alıntı bilgileri.

Bu Message, modelin çıktısı olarak oluşturulduysa bu alan, content içindeki herhangi bir metin için ilişkilendirme bilgileriyle doldurulabilir. Bu alan yalnızca çıkışta kullanılır.

MessagePrompt

Yapılandırılmış giriş metninin tamamı, istem olarak modele iletilir.

MessagePrompt, görüşme için bağlam sağlayan yapılandırılmış bir alan grubu, modeli farklı şekillerde yanıt vermeye hazırlayan kullanıcı girişi/model çıkış mesaj çifti örnekleri ve kullanıcı ile model arasındaki görüşme dönüşlerini temsil eden mesaj dizisi geçmişi veya mesaj listesini içerir.

JSON gösterimi
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
Alanlar
context string

İsteğe bağlı. Yanıtı temellendirmek için önce modele sağlanması gereken metin.

Boş değilse bu context, examples ve messages öncesinde ilk olarak modele verilir. Sürekliliği sağlamak için context kullanırken her istekte bu özelliği sağladığınızdan emin olun.

Bu alan, bağlam sağlamanıza ve yanıtları yönlendirmenize yardımcı olması için modele yönelik isteminizin bir açıklaması olabilir. Örnekler: "İfadeyi İngilizceden Fransızcaya çevir." veya "Bir ifadede duyguyu mutlu, üzgün veya nötr olarak sınıflandırın."

Toplam giriş boyutu, modelin inputTokenLimit değerini aşarsa ve giriş isteği kesilirse bu alandaki her şey, mesaj geçmişine göre öncelikli olur.

examples[] object (Example)

İsteğe bağlı. Modelin oluşturması gerekenlerle ilgili örnekler.

Bu, hem kullanıcı girişini hem de modelin emüle etmesi gereken yanıtı içerir.

Bu examples, messages içindeki geçmişe göre öncelikli olmaları dışında ileti dizisi iletileriyle aynı şekilde ele alınır: Toplam giriş boyutu, modelin inputTokenLimit değerini aşarsa giriş kısaltılır. Öğeler examples tarihinden önce messages adlı klasörden kaldırılacak.

messages[] object (Message)

Zorunlu. Kronolojik olarak sıralanmış son sohbet geçmişinin anlık görüntüsü.

İki yazar arasında alternatif yazar yapar.

Toplam giriş boyutu, modelin inputTokenLimit değerini aşarsa giriş kısaltılır: En eski öğeler messages listesinden çıkarılır.

Örnek

Modele talimat vermek için kullanılan bir giriş/çıkış örneği.

Modelin nasıl yanıt vermesi veya yanıtı biçimlendirmesi gerektiğini gösterir.

JSON gösterimi
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
Alanlar
input object (Message)

Zorunlu. Kullanıcıdan gelen Message girişi örneği.

output object (Message)

Zorunlu. Giriş yapıldığında modelin nasıl çıktı vermesi gerektiğini gösteren bir örnek.

GenerateTextResponse

Aday tamamlamaları da dahil olmak üzere modelin yanıtı.

JSON gösterimi
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
Alanlar
candidates[] object (TextCompletion)

Modelden Aday yanıtları.

filters[] object (ContentFilter)

İstem ve yanıt metni için bir içerik filtreleme meta verisi grubu.

Bu parametreler, bir adayın bu yanıtta hangi SafetyCategory tarafından engellendiğini, engellemeyi tetikleyen en düşük HarmProbability değerini ve ilgili kategori için HarmThreshold ayarını gösterir. Bu, SafetySettings ile ilgili olarak en az 1 yanıtın engellemesini kaldırmak için yapılması gereken en küçük değişikliği gösterir.

Engelleme, istekteki SafetySettings (veya API'nin varsayılan SafetySettings) tarafından yapılandırılır.

safetyFeedback[] object (SafetyFeedback)

İçerik filtrelemeyle ilgili güvenlik geri bildirimlerini döndürür.

TextCompletion

Bir modelden döndürülen çıkış metni.

JSON gösterimi
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Alanlar
output string

Yalnızca çıkış. Oluşturulan metin, modelin döndürdüğü metindir.

safetyRatings[] object (SafetyRating)

Bir yanıtın güvenli olduğuna dair derecelendirmeler.

Kategori başına en fazla bir derecelendirme vardır.

citationMetadata object (CitationMetadata)

Yalnızca çıkış. Bu TextCompletion içinde, model tarafından oluşturulmuş output için alıntı bilgileri.

Bu alan, output özelliğine dahil edilen herhangi bir metin için atıf bilgileriyle doldurulabilir.

SafetyFeedback

İsteğin tamamı için güvenlik geri bildirimi.

Bu alan, giriş ve/veya yanıttaki içerik güvenlik ayarları nedeniyle engellenmişse doldurulur. SafetyFeedback her HarmCategory için mevcut olmayabilir. Her SafetyFeedback, istek tarafından kullanılan güvenlik ayarlarının yanı sıra, sonuç döndürmek için izin verilmesi gereken en düşük HarmProbability ayarlarını da döndürür.

JSON gösterimi
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
Alanlar
rating object (SafetyRating)

İçerikten değerlendirilen güvenlik derecelendirmesi.

setting object (SafetySetting)

İsteğe uygulanan güvenlik ayarları.

TextPrompt

Modele istem olarak verilen metin.

Model, metin tamamlama oluşturmak için bu TextPrompt'u kullanır.

JSON gösterimi
{
  "text": string
}
Alanlar
text string

Zorunlu. İstem metni.