Generating content

Gemini API ইমেজ, অডিও, কোড, টুল এবং আরও অনেক কিছু সহ কন্টেন্ট জেনারেশন সমর্থন করে। এই বৈশিষ্ট্যগুলির প্রতিটির বিশদ বিবরণের জন্য, টাস্ক-কেন্দ্রিক নমুনা কোডটি পড়ুন এবং পরীক্ষা করে দেখুন, বা ব্যাপক নির্দেশিকা পড়ুন।

পদ্ধতি: models.generateContent

একটি ইনপুট GenerateContentRequest দেওয়া একটি মডেল প্রতিক্রিয়া তৈরি করে। বিস্তারিত ব্যবহারের তথ্যের জন্য পাঠ্য প্রজন্ম নির্দেশিকা পড়ুন। টিউন করা মডেল সহ মডেলগুলির মধ্যে ইনপুট ক্ষমতা আলাদা। বিস্তারিত জানার জন্য মডেল গাইড এবং টিউনিং গাইড পড়ুন।

শেষবিন্দু

পোস্ট https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateContent

পাথ প্যারামিটার

model string

প্রয়োজন। সমাপ্তি তৈরি করার জন্য ব্যবহার করা Model নাম।

বিন্যাস: models/{model} । এটি ফর্ম models/{model} লাগে।

শরীরের অনুরোধ

অনুরোধের অংশে নিম্নলিখিত কাঠামো সহ ডেটা রয়েছে:

ক্ষেত্র
contents[] object ( Content )

প্রয়োজন। মডেলের সাথে বর্তমান কথোপকথনের বিষয়বস্তু।

একক-পালা প্রশ্নের জন্য, এটি একটি একক উদাহরণ। চ্যাটের মতো বহু-মুখী প্রশ্নের জন্য, এটি একটি পুনরাবৃত্ত ক্ষেত্র যাতে কথোপকথনের ইতিহাস এবং সর্বশেষ অনুরোধ থাকে।

tools[] object ( Tool )

ঐচ্ছিক। পরবর্তী প্রতিক্রিয়া তৈরি করতে Model ব্যবহার করতে পারে Tools একটি তালিকা৷

একটি Tool হল কোডের একটি অংশ যা Model জ্ঞান এবং সুযোগের বাইরে একটি ক্রিয়া সম্পাদন করতে বা ক্রিয়াগুলির সেট করার জন্য সিস্টেমকে বহিরাগত সিস্টেমের সাথে যোগাযোগ করতে সক্ষম করে। সমর্থিত Tool হল Function এবং codeExecution । আরও জানতে ফাংশন কলিং এবং কোড এক্সিকিউশন গাইডগুলি পড়ুন।

toolConfig object ( ToolConfig )

ঐচ্ছিক। অনুরোধে উল্লেখ করা যেকোনো Tool জন্য টুল কনফিগারেশন। একটি ব্যবহারের উদাহরণের জন্য ফাংশন কলিং গাইড পড়ুন।

safetySettings[] object ( SafetySetting )

ঐচ্ছিক। অনিরাপদ বিষয়বস্তু ব্লক করার জন্য অনন্য SafetySetting দৃষ্টান্তের একটি তালিকা।

এটি GenerateContentRequest.contents এবং GenerateContentResponse.candidates এ প্রয়োগ করা হবে। প্রতিটি SafetyCategory প্রকারের জন্য একাধিক সেটিং থাকা উচিত নয়৷ এপিআই এই সেটিংস দ্বারা নির্ধারিত থ্রেশহোল্ড পূরণ করতে ব্যর্থ যে কোনো বিষয়বস্তু এবং প্রতিক্রিয়া ব্লক করবে। এই তালিকাটি সেফটিসেটিংসে নির্দিষ্ট করা প্রতিটি SafetyCategory জন্য ডিফল্ট সেটিংস ওভাররাইড করে। যদি তালিকায় প্রদত্ত একটি প্রদত্ত SafetyCategory জন্য কোনো SafetySetting না থাকে, তাহলে API সেই বিভাগের জন্য ডিফল্ট নিরাপত্তা সেটিং ব্যবহার করবে। ক্ষতির বিভাগগুলি HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT, HARM_CATEGORY_CIVIC_INTEGRITY সমর্থিত৷ উপলব্ধ নিরাপত্তা সেটিংস সম্পর্কে বিস্তারিত তথ্যের জন্য গাইড পড়ুন। এছাড়াও আপনার AI অ্যাপ্লিকেশনগুলিতে সুরক্ষা বিবেচনাগুলি কীভাবে অন্তর্ভুক্ত করবেন তা শিখতে সুরক্ষা নির্দেশিকা পড়ুন।

systemInstruction object ( Content )

ঐচ্ছিক। বিকাশকারী সেট সিস্টেম নির্দেশনা(গুলি) । বর্তমানে, শুধুমাত্র টেক্সট.

generationConfig object ( GenerationConfig )

ঐচ্ছিক। মডেল জেনারেশন এবং আউটপুটগুলির জন্য কনফিগারেশন বিকল্প।

cachedContent string

ঐচ্ছিক। ভবিষ্যদ্বাণী পরিবেশনের জন্য প্রসঙ্গ হিসাবে ব্যবহার করার জন্য ক্যাশ করা সামগ্রীর নাম৷ বিন্যাস: cachedContents/{cachedContent}

উদাহরণ অনুরোধ

পাঠ্য

পাইথন

from google import genai

client = genai.Client()
response = client.models.generate_content(
    model="gemini-2.0-flash", contents="Write a story about a magic backpack."
)
print(response.text)

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });

const response = await ai.models.generateContent({
  model: "gemini-2.0-flash",
  contents: "Write a story about a magic backpack.",
});
console.log(response.text);

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}
contents := []*genai.Content{
	genai.NewContentFromText("Write a story about a magic backpack.", genai.RoleUser),
}
response, err := client.Models.GenerateContent(ctx, "gemini-2.0-flash", contents, nil)
if err != nil {
	log.Fatal(err)
}
printResponse(response)

শেল

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY" \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
      "contents": [{
        "parts":[{"text": "Write a story about a magic backpack."}]
        }]
       }' 2> /dev/null

জাভা

Client client = new Client();

GenerateContentResponse response =
        client.models.generateContent(
                "gemini-2.0-flash",
                "Write a story about a magic backpack.",
                null);

System.out.println(response.text());

ছবি

পাইথন

from google import genai
import PIL.Image

client = genai.Client()
organ = PIL.Image.open(media / "organ.jpg")
response = client.models.generate_content(
    model="gemini-2.0-flash", contents=["Tell me about this instrument", organ]
)
print(response.text)

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });

const organ = await ai.files.upload({
  file: path.join(media, "organ.jpg"),
});

const response = await ai.models.generateContent({
  model: "gemini-2.0-flash",
  contents: [
    createUserContent([
      "Tell me about this instrument", 
      createPartFromUri(organ.uri, organ.mimeType)
    ]),
  ],
});
console.log(response.text);

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

file, err := client.Files.UploadFromPath(
	ctx, 
	filepath.Join(getMedia(), "organ.jpg"), 
	&genai.UploadFileConfig{
		MIMEType : "image/jpeg",
	},
)
if err != nil {
	log.Fatal(err)
}
parts := []*genai.Part{
	genai.NewPartFromText("Tell me about this instrument"),
	genai.NewPartFromURI(file.URI, file.MIMEType),
}
contents := []*genai.Content{
	genai.NewContentFromParts(parts, genai.RoleUser),
}

response, err := client.Models.GenerateContent(ctx, "gemini-2.0-flash", contents, nil)
if err != nil {
	log.Fatal(err)
}
printResponse(response)

শেল

# Use a temporary file to hold the base64 encoded image data
TEMP_B64=$(mktemp)
trap 'rm -f "$TEMP_B64"' EXIT
base64 $B64FLAGS $IMG_PATH > "$TEMP_B64"

# Use a temporary file to hold the JSON payload
TEMP_JSON=$(mktemp)
trap 'rm -f "$TEMP_JSON"' EXIT

cat > "$TEMP_JSON" << EOF
{
  "contents": [{
    "parts":[
      {"text": "Tell me about this instrument"},
      {
        "inline_data": {
          "mime_type":"image/jpeg",
          "data": "$(cat "$TEMP_B64")"
        }
      }
    ]
  }]
}
EOF

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY" \
    -H 'Content-Type: application/json' \
    -X POST \
    -d "@$TEMP_JSON" 2> /dev/null

জাভা

Client client = new Client();

String path = media_path + "organ.jpg";
byte[] imageData = Files.readAllBytes(Paths.get(path));

Content content =
        Content.fromParts(
                Part.fromText("Tell me about this instrument."),
                Part.fromBytes(imageData, "image/jpeg"));

GenerateContentResponse response = client.models.generateContent("gemini-2.0-flash", content, null);

System.out.println(response.text());

অডিও

পাইথন

from google import genai

client = genai.Client()
sample_audio = client.files.upload(file=media / "sample.mp3")
response = client.models.generate_content(
    model="gemini-2.0-flash",
    contents=["Give me a summary of this audio file.", sample_audio],
)
print(response.text)

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });

const audio = await ai.files.upload({
  file: path.join(media, "sample.mp3"),
});

const response = await ai.models.generateContent({
  model: "gemini-2.0-flash",
  contents: [
    createUserContent([
      "Give me a summary of this audio file.",
      createPartFromUri(audio.uri, audio.mimeType),
    ]),
  ],
});
console.log(response.text);

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

file, err := client.Files.UploadFromPath(
	ctx, 
	filepath.Join(getMedia(), "sample.mp3"), 
	&genai.UploadFileConfig{
		MIMEType : "audio/mpeg",
	},
)
if err != nil {
	log.Fatal(err)
}

parts := []*genai.Part{
	genai.NewPartFromText("Give me a summary of this audio file."),
	genai.NewPartFromURI(file.URI, file.MIMEType),
}

contents := []*genai.Content{
	genai.NewContentFromParts(parts, genai.RoleUser),
}

response, err := client.Models.GenerateContent(ctx, "gemini-2.0-flash", contents, nil)
if err != nil {
	log.Fatal(err)
}
printResponse(response)

শেল

# Use File API to upload audio data to API request.
MIME_TYPE=$(file -b --mime-type "${AUDIO_PATH}")
NUM_BYTES=$(wc -c < "${AUDIO_PATH}")
DISPLAY_NAME=AUDIO

tmp_header_file=upload-header.tmp

# Initial resumable request defining metadata.
# The upload url is in the response headers dump them to a file.
curl "${BASE_URL}/upload/v1beta/files?key=${GEMINI_API_KEY}" \
  -D upload-header.tmp \
  -H "X-Goog-Upload-Protocol: resumable" \
  -H "X-Goog-Upload-Command: start" \
  -H "X-Goog-Upload-Header-Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Header-Content-Type: ${MIME_TYPE}" \
  -H "Content-Type: application/json" \
  -d "{'file': {'display_name': '${DISPLAY_NAME}'}}" 2> /dev/null

upload_url=$(grep -i "x-goog-upload-url: " "${tmp_header_file}" | cut -d" " -f2 | tr -d "\r")
rm "${tmp_header_file}"

# Upload the actual bytes.
curl "${upload_url}" \
  -H "Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Offset: 0" \
  -H "X-Goog-Upload-Command: upload, finalize" \
  --data-binary "@${AUDIO_PATH}" 2> /dev/null > file_info.json

file_uri=$(jq ".file.uri" file_info.json)
echo file_uri=$file_uri

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY" \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
      "contents": [{
        "parts":[
          {"text": "Please describe this file."},
          {"file_data":{"mime_type": "audio/mpeg", "file_uri": '$file_uri'}}]
        }]
       }' 2> /dev/null > response.json

cat response.json
echo

jq ".candidates[].content.parts[].text" response.json

ভিডিও

পাইথন

from google import genai
import time

client = genai.Client()
# Video clip (CC BY 3.0) from https://peach.blender.org/download/
myfile = client.files.upload(file=media / "Big_Buck_Bunny.mp4")
print(f"{myfile=}")

# Poll until the video file is completely processed (state becomes ACTIVE).
while not myfile.state or myfile.state.name != "ACTIVE":
    print("Processing video...")
    print("File state:", myfile.state)
    time.sleep(5)
    myfile = client.files.get(name=myfile.name)

response = client.models.generate_content(
    model="gemini-2.0-flash", contents=[myfile, "Describe this video clip"]
)
print(f"{response.text=}")

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });

let video = await ai.files.upload({
  file: path.join(media, 'Big_Buck_Bunny.mp4'),
});

// Poll until the video file is completely processed (state becomes ACTIVE).
while (!video.state || video.state.toString() !== 'ACTIVE') {
  console.log('Processing video...');
  console.log('File state: ', video.state);
  await sleep(5000);
  video = await ai.files.get({name: video.name});
}

const response = await ai.models.generateContent({
  model: "gemini-2.0-flash",
  contents: [
    createUserContent([
      "Describe this video clip",
      createPartFromUri(video.uri, video.mimeType),
    ]),
  ],
});
console.log(response.text);

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

file, err := client.Files.UploadFromPath(
	ctx, 
	filepath.Join(getMedia(), "Big_Buck_Bunny.mp4"), 
	&genai.UploadFileConfig{
		MIMEType : "video/mp4",
	},
)
if err != nil {
	log.Fatal(err)
}

// Poll until the video file is completely processed (state becomes ACTIVE).
for file.State == genai.FileStateUnspecified || file.State != genai.FileStateActive {
	fmt.Println("Processing video...")
	fmt.Println("File state:", file.State)
	time.Sleep(5 * time.Second)

	file, err = client.Files.Get(ctx, file.Name, nil)
	if err != nil {
		log.Fatal(err)
	}
}

parts := []*genai.Part{
	genai.NewPartFromText("Describe this video clip"),
	genai.NewPartFromURI(file.URI, file.MIMEType),
}

contents := []*genai.Content{
	genai.NewContentFromParts(parts, genai.RoleUser),
}

response, err := client.Models.GenerateContent(ctx, "gemini-2.0-flash", contents, nil)
if err != nil {
	log.Fatal(err)
}
printResponse(response)

শেল

# Use File API to upload audio data to API request.
MIME_TYPE=$(file -b --mime-type "${VIDEO_PATH}")
NUM_BYTES=$(wc -c < "${VIDEO_PATH}")
DISPLAY_NAME=VIDEO

# Initial resumable request defining metadata.
# The upload url is in the response headers dump them to a file.
curl "${BASE_URL}/upload/v1beta/files?key=${GEMINI_API_KEY}" \
  -D "${tmp_header_file}" \
  -H "X-Goog-Upload-Protocol: resumable" \
  -H "X-Goog-Upload-Command: start" \
  -H "X-Goog-Upload-Header-Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Header-Content-Type: ${MIME_TYPE}" \
  -H "Content-Type: application/json" \
  -d "{'file': {'display_name': '${DISPLAY_NAME}'}}" 2> /dev/null

upload_url=$(grep -i "x-goog-upload-url: " "${tmp_header_file}" | cut -d" " -f2 | tr -d "\r")
rm "${tmp_header_file}"

# Upload the actual bytes.
curl "${upload_url}" \
  -H "Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Offset: 0" \
  -H "X-Goog-Upload-Command: upload, finalize" \
  --data-binary "@${VIDEO_PATH}" 2> /dev/null > file_info.json

file_uri=$(jq ".file.uri" file_info.json)
echo file_uri=$file_uri

state=$(jq ".file.state" file_info.json)
echo state=$state

name=$(jq ".file.name" file_info.json)
echo name=$name

while [[ "($state)" = *"PROCESSING"* ]];
do
  echo "Processing video..."
  sleep 5
  # Get the file of interest to check state
  curl https://generativelanguage.googleapis.com/v1beta/files/$name > file_info.json
  state=$(jq ".file.state" file_info.json)
done

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY" \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
      "contents": [{
        "parts":[
          {"text": "Transcribe the audio from this video, giving timestamps for salient events in the video. Also provide visual descriptions."},
          {"file_data":{"mime_type": "video/mp4", "file_uri": '$file_uri'}}]
        }]
       }' 2> /dev/null > response.json

cat response.json
echo

jq ".candidates[].content.parts[].text" response.json

পিডিএফ

পাইথন

from google import genai

client = genai.Client()
sample_pdf = client.files.upload(file=media / "test.pdf")
response = client.models.generate_content(
    model="gemini-2.0-flash",
    contents=["Give me a summary of this document:", sample_pdf],
)
print(f"{response.text=}")

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

file, err := client.Files.UploadFromPath(
	ctx, 
	filepath.Join(getMedia(), "test.pdf"), 
	&genai.UploadFileConfig{
		MIMEType : "application/pdf",
	},
)
if err != nil {
	log.Fatal(err)
}

parts := []*genai.Part{
	genai.NewPartFromText("Give me a summary of this document:"),
	genai.NewPartFromURI(file.URI, file.MIMEType),
}

contents := []*genai.Content{
	genai.NewContentFromParts(parts, genai.RoleUser),
}

response, err := client.Models.GenerateContent(ctx, "gemini-2.0-flash", contents, nil)
if err != nil {
	log.Fatal(err)
}
printResponse(response)

শেল

MIME_TYPE=$(file -b --mime-type "${PDF_PATH}")
NUM_BYTES=$(wc -c < "${PDF_PATH}")
DISPLAY_NAME=TEXT


echo $MIME_TYPE
tmp_header_file=upload-header.tmp

# Initial resumable request defining metadata.
# The upload url is in the response headers dump them to a file.
curl "${BASE_URL}/upload/v1beta/files?key=${GEMINI_API_KEY}" \
  -D upload-header.tmp \
  -H "X-Goog-Upload-Protocol: resumable" \
  -H "X-Goog-Upload-Command: start" \
  -H "X-Goog-Upload-Header-Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Header-Content-Type: ${MIME_TYPE}" \
  -H "Content-Type: application/json" \
  -d "{'file': {'display_name': '${DISPLAY_NAME}'}}" 2> /dev/null

upload_url=$(grep -i "x-goog-upload-url: " "${tmp_header_file}" | cut -d" " -f2 | tr -d "\r")
rm "${tmp_header_file}"

# Upload the actual bytes.
curl "${upload_url}" \
  -H "Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Offset: 0" \
  -H "X-Goog-Upload-Command: upload, finalize" \
  --data-binary "@${PDF_PATH}" 2> /dev/null > file_info.json

file_uri=$(jq ".file.uri" file_info.json)
echo file_uri=$file_uri

# Now generate content using that file
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY" \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
      "contents": [{
        "parts":[
          {"text": "Can you add a few more lines to this poem?"},
          {"file_data":{"mime_type": "application/pdf", "file_uri": '$file_uri'}}]
        }]
       }' 2> /dev/null > response.json

cat response.json
echo

jq ".candidates[].content.parts[].text" response.json

চ্যাট

পাইথন

from google import genai
from google.genai import types

client = genai.Client()
# Pass initial history using the "history" argument
chat = client.chats.create(
    model="gemini-2.0-flash",
    history=[
        types.Content(role="user", parts=[types.Part(text="Hello")]),
        types.Content(
            role="model",
            parts=[
                types.Part(
                    text="Great to meet you. What would you like to know?"
                )
            ],
        ),
    ],
)
response = chat.send_message(message="I have 2 dogs in my house.")
print(response.text)
response = chat.send_message(message="How many paws are in my house?")
print(response.text)

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });
const chat = ai.chats.create({
  model: "gemini-2.0-flash",
  history: [
    {
      role: "user",
      parts: [{ text: "Hello" }],
    },
    {
      role: "model",
      parts: [{ text: "Great to meet you. What would you like to know?" }],
    },
  ],
});

const response1 = await chat.sendMessage({
  message: "I have 2 dogs in my house.",
});
console.log("Chat response 1:", response1.text);

const response2 = await chat.sendMessage({
  message: "How many paws are in my house?",
});
console.log("Chat response 2:", response2.text);

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

// Pass initial history using the History field.
history := []*genai.Content{
	genai.NewContentFromText("Hello", genai.RoleUser),
	genai.NewContentFromText("Great to meet you. What would you like to know?", genai.RoleModel),
}

chat, err := client.Chats.Create(ctx, "gemini-2.0-flash", nil, history)
if err != nil {
	log.Fatal(err)
}

firstResp, err := chat.SendMessage(ctx, genai.Part{Text: "I have 2 dogs in my house."})
if err != nil {
	log.Fatal(err)
}
fmt.Println(firstResp.Text())

secondResp, err := chat.SendMessage(ctx, genai.Part{Text: "How many paws are in my house?"})
if err != nil {
	log.Fatal(err)
}
fmt.Println(secondResp.Text())

শেল

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
      "contents": [
        {"role":"user",
         "parts":[{
           "text": "Hello"}]},
        {"role": "model",
         "parts":[{
           "text": "Great to meet you. What would you like to know?"}]},
        {"role":"user",
         "parts":[{
           "text": "I have two dogs in my house. How many paws are in my house?"}]},
      ]
    }' 2> /dev/null | grep "text"

জাভা

Client client = new Client();

Content userContent = Content.fromParts(Part.fromText("Hello"));
Content modelContent =
        Content.builder()
                .role("model")
                .parts(
                        Collections.singletonList(
                                Part.fromText("Great to meet you. What would you like to know?")
                        )
                ).build();

Chat chat = client.chats.create(
        "gemini-2.0-flash",
        GenerateContentConfig.builder()
                .systemInstruction(userContent)
                .systemInstruction(modelContent)
                .build()
);

GenerateContentResponse response1 = chat.sendMessage("I have 2 dogs in my house.");
System.out.println(response1.text());

GenerateContentResponse response2 = chat.sendMessage("How many paws are in my house?");
System.out.println(response2.text());

ক্যাশে

পাইথন

from google import genai
from google.genai import types

client = genai.Client()
document = client.files.upload(file=media / "a11.txt")
model_name = "gemini-1.5-flash-001"

cache = client.caches.create(
    model=model_name,
    config=types.CreateCachedContentConfig(
        contents=[document],
        system_instruction="You are an expert analyzing transcripts.",
    ),
)
print(cache)

response = client.models.generate_content(
    model=model_name,
    contents="Please summarize this transcript",
    config=types.GenerateContentConfig(cached_content=cache.name),
)
print(response.text)

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });
const filePath = path.join(media, "a11.txt");
const document = await ai.files.upload({
  file: filePath,
  config: { mimeType: "text/plain" },
});
console.log("Uploaded file name:", document.name);
const modelName = "gemini-1.5-flash-001";

const contents = [
  createUserContent(createPartFromUri(document.uri, document.mimeType)),
];

const cache = await ai.caches.create({
  model: modelName,
  config: {
    contents: contents,
    systemInstruction: "You are an expert analyzing transcripts.",
  },
});
console.log("Cache created:", cache);

const response = await ai.models.generateContent({
  model: modelName,
  contents: "Please summarize this transcript",
  config: { cachedContent: cache.name },
});
console.log("Response text:", response.text);

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"), 
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

modelName := "gemini-1.5-flash-001"
document, err := client.Files.UploadFromPath(
	ctx, 
	filepath.Join(getMedia(), "a11.txt"), 
	&genai.UploadFileConfig{
		MIMEType : "text/plain",
	},
)
if err != nil {
	log.Fatal(err)
}
parts := []*genai.Part{
	genai.NewPartFromURI(document.URI, document.MIMEType),
}
contents := []*genai.Content{
	genai.NewContentFromParts(parts, genai.RoleUser),
}
cache, err := client.Caches.Create(ctx, modelName, &genai.CreateCachedContentConfig{
	Contents: contents,
	SystemInstruction: genai.NewContentFromText(
		"You are an expert analyzing transcripts.", genai.RoleUser,
	),
})
if err != nil {
	log.Fatal(err)
}
fmt.Println("Cache created:")
fmt.Println(cache)

// Use the cache for generating content.
response, err := client.Models.GenerateContent(
	ctx,
	modelName,
	genai.Text("Please summarize this transcript"),
	&genai.GenerateContentConfig{
		CachedContent: cache.Name,
	},
)
if err != nil {
	log.Fatal(err)
}
printResponse(response)

টিউন করা মডেল

পাইথন

# With Gemini 2 we're launching a new SDK. See the following doc for details.
# https://ai.google.dev/gemini-api/docs/migrate

JSON মোড

পাইথন

from google import genai
from google.genai import types
from typing_extensions import TypedDict

class Recipe(TypedDict):
    recipe_name: str
    ingredients: list[str]

client = genai.Client()
result = client.models.generate_content(
    model="gemini-2.0-flash",
    contents="List a few popular cookie recipes.",
    config=types.GenerateContentConfig(
        response_mime_type="application/json", response_schema=list[Recipe]
    ),
)
print(result)

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });
const response = await ai.models.generateContent({
  model: "gemini-2.0-flash",
  contents: "List a few popular cookie recipes.",
  config: {
    responseMimeType: "application/json",
    responseSchema: {
      type: "array",
      items: {
        type: "object",
        properties: {
          recipeName: { type: "string" },
          ingredients: { type: "array", items: { type: "string" } },
        },
        required: ["recipeName", "ingredients"],
      },
    },
  },
});
console.log(response.text);

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"), 
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

schema := &genai.Schema{
	Type: genai.TypeArray,
	Items: &genai.Schema{
		Type: genai.TypeObject,
		Properties: map[string]*genai.Schema{
			"recipe_name": {Type: genai.TypeString},
			"ingredients": {
				Type:  genai.TypeArray,
				Items: &genai.Schema{Type: genai.TypeString},
			},
		},
		Required: []string{"recipe_name"},
	},
}

config := &genai.GenerateContentConfig{
	ResponseMIMEType: "application/json",
	ResponseSchema:   schema,
}

response, err := client.Models.GenerateContent(
	ctx,
	"gemini-2.0-flash",
	genai.Text("List a few popular cookie recipes."),
	config,
)
if err != nil {
	log.Fatal(err)
}
printResponse(response)

শেল

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-d '{
    "contents": [{
      "parts":[
        {"text": "List 5 popular cookie recipes"}
        ]
    }],
    "generationConfig": {
        "response_mime_type": "application/json",
        "response_schema": {
          "type": "ARRAY",
          "items": {
            "type": "OBJECT",
            "properties": {
              "recipe_name": {"type":"STRING"},
            }
          }
        }
    }
}' 2> /dev/null | head

জাভা

Client client = new Client();

Schema recipeSchema = Schema.builder()
        .type(Array.class.getSimpleName())
        .items(Schema.builder()
                .type(Object.class.getSimpleName())
                .properties(
                        Map.of("recipe_name", Schema.builder()
                                        .type(String.class.getSimpleName())
                                        .build(),
                                "ingredients", Schema.builder()
                                        .type(Array.class.getSimpleName())
                                        .items(Schema.builder()
                                                .type(String.class.getSimpleName())
                                                .build())
                                        .build())
                )
                .required(List.of("recipe_name", "ingredients"))
                .build())
        .build();

GenerateContentConfig config =
        GenerateContentConfig.builder()
                .responseMimeType("application/json")
                .responseSchema(recipeSchema)
                .build();

GenerateContentResponse response =
        client.models.generateContent(
                "gemini-2.0-flash",
                "List a few popular cookie recipes.",
                config);

System.out.println(response.text());

কোড এক্সিকিউশন

পাইথন

from google import genai
from google.genai import types

client = genai.Client()
response = client.models.generate_content(
    model="gemini-2.0-pro-exp-02-05",
    contents=(
        "Write and execute code that calculates the sum of the first 50 prime numbers. "
        "Ensure that only the executable code and its resulting output are generated."
    ),
)
# Each part may contain text, executable code, or an execution result.
for part in response.candidates[0].content.parts:
    print(part, "\n")

print("-" * 80)
# The .text accessor concatenates the parts into a markdown-formatted text.
print("\n", response.text)

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

response, err := client.Models.GenerateContent(
	ctx,
	"gemini-2.0-pro-exp-02-05",
	genai.Text(
		`Write and execute code that calculates the sum of the first 50 prime numbers.
		 Ensure that only the executable code and its resulting output are generated.`,
	),
	&genai.GenerateContentConfig{},
)
if err != nil {
	log.Fatal(err)
}

// Print the response.
printResponse(response)

fmt.Println("--------------------------------------------------------------------------------")
fmt.Println(response.Text())

জাভা

Client client = new Client();

String prompt = """
        Write and execute code that calculates the sum of the first 50 prime numbers.
        Ensure that only the executable code and its resulting output are generated.
        """;

GenerateContentResponse response =
        client.models.generateContent(
                "gemini-2.0-pro-exp-02-05",
                prompt,
                null);

for (Part part : response.candidates().get().getFirst().content().get().parts().get()) {
    System.out.println(part + "\n");
}

System.out.println("-".repeat(80));
System.out.println(response.text());

ফাংশন কলিং

পাইথন

from google import genai
from google.genai import types

client = genai.Client()

def add(a: float, b: float) -> float:
    """returns a + b."""
    return a + b

def subtract(a: float, b: float) -> float:
    """returns a - b."""
    return a - b

def multiply(a: float, b: float) -> float:
    """returns a * b."""
    return a * b

def divide(a: float, b: float) -> float:
    """returns a / b."""
    return a / b

# Create a chat session; function calling (via tools) is enabled in the config.
chat = client.chats.create(
    model="gemini-2.0-flash",
    config=types.GenerateContentConfig(tools=[add, subtract, multiply, divide]),
)
response = chat.send_message(
    message="I have 57 cats, each owns 44 mittens, how many mittens is that in total?"
)
print(response.text)

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}
modelName := "gemini-2.0-flash"

// Create the function declarations for arithmetic operations.
addDeclaration := createArithmeticToolDeclaration("addNumbers", "Return the result of adding two numbers.")
subtractDeclaration := createArithmeticToolDeclaration("subtractNumbers", "Return the result of subtracting the second number from the first.")
multiplyDeclaration := createArithmeticToolDeclaration("multiplyNumbers", "Return the product of two numbers.")
divideDeclaration := createArithmeticToolDeclaration("divideNumbers", "Return the quotient of dividing the first number by the second.")

// Group the function declarations as a tool.
tools := []*genai.Tool{
	{
		FunctionDeclarations: []*genai.FunctionDeclaration{
			addDeclaration,
			subtractDeclaration,
			multiplyDeclaration,
			divideDeclaration,
		},
	},
}

// Create the content prompt.
contents := []*genai.Content{
	genai.NewContentFromText(
		"I have 57 cats, each owns 44 mittens, how many mittens is that in total?", genai.RoleUser,
	),
}

// Set up the generate content configuration with function calling enabled.
config := &genai.GenerateContentConfig{
	Tools: tools,
	ToolConfig: &genai.ToolConfig{
		FunctionCallingConfig: &genai.FunctionCallingConfig{
			// The mode equivalent to FunctionCallingConfigMode.ANY in JS.
			Mode: genai.FunctionCallingConfigModeAny,
		},
	},
}

genContentResp, err := client.Models.GenerateContent(ctx, modelName, contents, config)
if err != nil {
	log.Fatal(err)
}

// Assume the response includes a list of function calls.
if len(genContentResp.FunctionCalls()) == 0 {
	log.Println("No function call returned from the AI.")
	return nil
}
functionCall := genContentResp.FunctionCalls()[0]
log.Printf("Function call: %+v\n", functionCall)

// Marshal the Args map into JSON bytes.
argsMap, err := json.Marshal(functionCall.Args)
if err != nil {
	log.Fatal(err)
}

// Unmarshal the JSON bytes into the ArithmeticArgs struct.
var args ArithmeticArgs
if err := json.Unmarshal(argsMap, &args); err != nil {
	log.Fatal(err)
}

// Map the function name to the actual arithmetic function.
var result float64
switch functionCall.Name {
	case "addNumbers":
		result = add(args.FirstParam, args.SecondParam)
	case "subtractNumbers":
		result = subtract(args.FirstParam, args.SecondParam)
	case "multiplyNumbers":
		result = multiply(args.FirstParam, args.SecondParam)
	case "divideNumbers":
		result = divide(args.FirstParam, args.SecondParam)
	default:
		return fmt.Errorf("unimplemented function: %s", functionCall.Name)
}
log.Printf("Function result: %v\n", result)

// Prepare the final result message as content.
resultContents := []*genai.Content{
	genai.NewContentFromText("The final result is " + fmt.Sprintf("%v", result), genai.RoleUser),
}

// Use GenerateContent to send the final result.
finalResponse, err := client.Models.GenerateContent(ctx, modelName, resultContents, &genai.GenerateContentConfig{})
if err != nil {
	log.Fatal(err)
}

printResponse(finalResponse)

Node.js

  // Make sure to include the following import:
  // import {GoogleGenAI} from '@google/genai';
  const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });

  /**
   * The add function returns the sum of two numbers.
   * @param {number} a
   * @param {number} b
   * @returns {number}
   */
  function add(a, b) {
    return a + b;
  }

  /**
   * The subtract function returns the difference (a - b).
   * @param {number} a
   * @param {number} b
   * @returns {number}
   */
  function subtract(a, b) {
    return a - b;
  }

  /**
   * The multiply function returns the product of two numbers.
   * @param {number} a
   * @param {number} b
   * @returns {number}
   */
  function multiply(a, b) {
    return a * b;
  }

  /**
   * The divide function returns the quotient of a divided by b.
   * @param {number} a
   * @param {number} b
   * @returns {number}
   */
  function divide(a, b) {
    return a / b;
  }

  const addDeclaration = {
    name: "addNumbers",
    parameters: {
      type: "object",
      description: "Return the result of adding two numbers.",
      properties: {
        firstParam: {
          type: "number",
          description:
            "The first parameter which can be an integer or a floating point number.",
        },
        secondParam: {
          type: "number",
          description:
            "The second parameter which can be an integer or a floating point number.",
        },
      },
      required: ["firstParam", "secondParam"],
    },
  };

  const subtractDeclaration = {
    name: "subtractNumbers",
    parameters: {
      type: "object",
      description:
        "Return the result of subtracting the second number from the first.",
      properties: {
        firstParam: {
          type: "number",
          description: "The first parameter.",
        },
        secondParam: {
          type: "number",
          description: "The second parameter.",
        },
      },
      required: ["firstParam", "secondParam"],
    },
  };

  const multiplyDeclaration = {
    name: "multiplyNumbers",
    parameters: {
      type: "object",
      description: "Return the product of two numbers.",
      properties: {
        firstParam: {
          type: "number",
          description: "The first parameter.",
        },
        secondParam: {
          type: "number",
          description: "The second parameter.",
        },
      },
      required: ["firstParam", "secondParam"],
    },
  };

  const divideDeclaration = {
    name: "divideNumbers",
    parameters: {
      type: "object",
      description:
        "Return the quotient of dividing the first number by the second.",
      properties: {
        firstParam: {
          type: "number",
          description: "The first parameter.",
        },
        secondParam: {
          type: "number",
          description: "The second parameter.",
        },
      },
      required: ["firstParam", "secondParam"],
    },
  };

  // Step 1: Call generateContent with function calling enabled.
  const generateContentResponse = await ai.models.generateContent({
    model: "gemini-2.0-flash",
    contents:
      "I have 57 cats, each owns 44 mittens, how many mittens is that in total?",
    config: {
      toolConfig: {
        functionCallingConfig: {
          mode: FunctionCallingConfigMode.ANY,
        },
      },
      tools: [
        {
          functionDeclarations: [
            addDeclaration,
            subtractDeclaration,
            multiplyDeclaration,
            divideDeclaration,
          ],
        },
      ],
    },
  });

  // Step 2: Extract the function call.(
  // Assuming the response contains a 'functionCalls' array.
  const functionCall =
    generateContentResponse.functionCalls &&
    generateContentResponse.functionCalls[0];
  console.log(functionCall);

  // Parse the arguments.
  const args = functionCall.args;
  // Expected args format: { firstParam: number, secondParam: number }

  // Step 3: Invoke the actual function based on the function name.
  const functionMapping = {
    addNumbers: add,
    subtractNumbers: subtract,
    multiplyNumbers: multiply,
    divideNumbers: divide,
  };
  const func = functionMapping[functionCall.name];
  if (!func) {
    console.error("Unimplemented error:", functionCall.name);
    return generateContentResponse;
  }
  const resultValue = func(args.firstParam, args.secondParam);
  console.log("Function result:", resultValue);

  // Step 4: Use the chat API to send the result as the final answer.
  const chat = ai.chats.create({ model: "gemini-2.0-flash" });
  const chatResponse = await chat.sendMessage({
    message: "The final result is " + resultValue,
  });
  console.log(chatResponse.text);
  return chatResponse;
}

শেল


cat > tools.json << EOF
{
  "function_declarations": [
    {
      "name": "enable_lights",
      "description": "Turn on the lighting system."
    },
    {
      "name": "set_light_color",
      "description": "Set the light color. Lights must be enabled for this to work.",
      "parameters": {
        "type": "object",
        "properties": {
          "rgb_hex": {
            "type": "string",
            "description": "The light color as a 6-digit hex string, e.g. ff0000 for red."
          }
        },
        "required": [
          "rgb_hex"
        ]
      }
    },
    {
      "name": "stop_lights",
      "description": "Turn off the lighting system."
    }
  ]
} 
EOF

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY" \
  -H 'Content-Type: application/json' \
  -d @<(echo '
  {
    "system_instruction": {
      "parts": {
        "text": "You are a helpful lighting system bot. You can turn lights on and off, and you can set the color. Do not perform any other tasks."
      }
    },
    "tools": ['$(cat tools.json)'],

    "tool_config": {
      "function_calling_config": {"mode": "auto"}
    },

    "contents": {
      "role": "user",
      "parts": {
        "text": "Turn on the lights please."
      }
    }
  }
') 2>/dev/null |sed -n '/"content"/,/"finishReason"/p'

জাভা

Client client = new Client();

FunctionDeclaration addFunction =
        FunctionDeclaration.builder()
                .name("addNumbers")
                .parameters(
                        Schema.builder()
                                .type("object")
                                .properties(Map.of(
                                        "firstParam", Schema.builder().type("number").description("First number").build(),
                                        "secondParam", Schema.builder().type("number").description("Second number").build()))
                                .required(Arrays.asList("firstParam", "secondParam"))
                                .build())
                .build();

FunctionDeclaration subtractFunction =
        FunctionDeclaration.builder()
                .name("subtractNumbers")
                .parameters(
                        Schema.builder()
                                .type("object")
                                .properties(Map.of(
                                        "firstParam", Schema.builder().type("number").description("First number").build(),
                                        "secondParam", Schema.builder().type("number").description("Second number").build()))
                                .required(Arrays.asList("firstParam", "secondParam"))
                                .build())
                .build();

FunctionDeclaration multiplyFunction =
        FunctionDeclaration.builder()
                .name("multiplyNumbers")
                .parameters(
                        Schema.builder()
                                .type("object")
                                .properties(Map.of(
                                        "firstParam", Schema.builder().type("number").description("First number").build(),
                                        "secondParam", Schema.builder().type("number").description("Second number").build()))
                                .required(Arrays.asList("firstParam", "secondParam"))
                                .build())
                .build();

FunctionDeclaration divideFunction =
        FunctionDeclaration.builder()
                .name("divideNumbers")
                .parameters(
                        Schema.builder()
                                .type("object")
                                .properties(Map.of(
                                        "firstParam", Schema.builder().type("number").description("First number").build(),
                                        "secondParam", Schema.builder().type("number").description("Second number").build()))
                                .required(Arrays.asList("firstParam", "secondParam"))
                                .build())
                .build();

GenerateContentConfig config = GenerateContentConfig.builder()
        .toolConfig(ToolConfig.builder().functionCallingConfig(
                FunctionCallingConfig.builder().mode("ANY").build()
        ).build())
        .tools(
                Collections.singletonList(
                        Tool.builder().functionDeclarations(
                                Arrays.asList(
                                        addFunction,
                                        subtractFunction,
                                        divideFunction,
                                        multiplyFunction
                                )
                        ).build()

                )
        )
        .build();

GenerateContentResponse response =
        client.models.generateContent(
                "gemini-2.0-flash",
                "I have 57 cats, each owns 44 mittens, how many mittens is that in total?",
                config);


if (response.functionCalls() == null || response.functionCalls().isEmpty()) {
    System.err.println("No function call received");
    return null;
}

var functionCall = response.functionCalls().getFirst();
String functionName = functionCall.name().get();
var arguments = functionCall.args();

Map<String, BiFunction<Double, Double, Double>> functionMapping = new HashMap<>();
functionMapping.put("addNumbers", (a, b) -> a + b);
functionMapping.put("subtractNumbers", (a, b) -> a - b);
functionMapping.put("multiplyNumbers", (a, b) -> a * b);
functionMapping.put("divideNumbers", (a, b) -> b != 0 ? a / b : Double.NaN);

BiFunction<Double, Double, Double> function = functionMapping.get(functionName);

Number firstParam = (Number) arguments.get().get("firstParam");
Number secondParam = (Number) arguments.get().get("secondParam");
Double result = function.apply(firstParam.doubleValue(), secondParam.doubleValue());

System.out.println(result);

জেনারেশন কনফিগারেশন

পাইথন

from google import genai
from google.genai import types

client = genai.Client()
response = client.models.generate_content(
    model="gemini-2.0-flash",
    contents="Tell me a story about a magic backpack.",
    config=types.GenerateContentConfig(
        candidate_count=1,
        stop_sequences=["x"],
        max_output_tokens=20,
        temperature=1.0,
    ),
)
print(response.text)

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });

const response = await ai.models.generateContent({
  model: "gemini-2.0-flash",
  contents: "Tell me a story about a magic backpack.",
  config: {
    candidateCount: 1,
    stopSequences: ["x"],
    maxOutputTokens: 20,
    temperature: 1.0,
  },
});

console.log(response.text);

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

// Create local variables for parameters.
candidateCount := int32(1)
maxOutputTokens := int32(20)
temperature := float32(1.0)

response, err := client.Models.GenerateContent(
	ctx,
	"gemini-2.0-flash",
	genai.Text("Tell me a story about a magic backpack."),
	&genai.GenerateContentConfig{
		CandidateCount:  candidateCount,
		StopSequences:   []string{"x"},
		MaxOutputTokens: maxOutputTokens,
		Temperature:     &temperature,
	},
)
if err != nil {
	log.Fatal(err)
}

printResponse(response)

শেল

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
        "contents": [{
            "parts":[
                {"text": "Explain how AI works"}
            ]
        }],
        "generationConfig": {
            "stopSequences": [
                "Title"
            ],
            "temperature": 1.0,
            "maxOutputTokens": 800,
            "topP": 0.8,
            "topK": 10
        }
    }'  2> /dev/null | grep "text"

জাভা

Client client = new Client();

GenerateContentConfig config =
        GenerateContentConfig.builder()
                .candidateCount(1)
                .stopSequences(List.of("x"))
                .maxOutputTokens(20)
                .temperature(1.0F)
                .build();

GenerateContentResponse response =
        client.models.generateContent(
                "gemini-2.0-flash",
                "Tell me a story about a magic backpack.",
                config);

System.out.println(response.text());

নিরাপত্তা সেটিংস

পাইথন

from google import genai
from google.genai import types

client = genai.Client()
unsafe_prompt = (
    "I support Martians Soccer Club and I think Jupiterians Football Club sucks! "
    "Write a ironic phrase about them including expletives."
)
response = client.models.generate_content(
    model="gemini-2.0-flash",
    contents=unsafe_prompt,
    config=types.GenerateContentConfig(
        safety_settings=[
            types.SafetySetting(
                category="HARM_CATEGORY_HATE_SPEECH",
                threshold="BLOCK_MEDIUM_AND_ABOVE",
            ),
            types.SafetySetting(
                category="HARM_CATEGORY_HARASSMENT", threshold="BLOCK_ONLY_HIGH"
            ),
        ]
    ),
)
try:
    print(response.text)
except Exception:
    print("No information generated by the model.")

print(response.candidates[0].safety_ratings)

Node.js

  // Make sure to include the following import:
  // import {GoogleGenAI} from '@google/genai';
  const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });
  const unsafePrompt =
    "I support Martians Soccer Club and I think Jupiterians Football Club sucks! Write a ironic phrase about them including expletives.";

  const response = await ai.models.generateContent({
    model: "gemini-2.0-flash",
    contents: unsafePrompt,
    config: {
      safetySettings: [
        {
          category: "HARM_CATEGORY_HATE_SPEECH",
          threshold: "BLOCK_MEDIUM_AND_ABOVE",
        },
        {
          category: "HARM_CATEGORY_HARASSMENT",
          threshold: "BLOCK_ONLY_HIGH",
        },
      ],
    },
  });

  try {
    console.log("Generated text:", response.text);
  } catch (error) {
    console.log("No information generated by the model.");
  }
  console.log("Safety ratings:", response.candidates[0].safetyRatings);
  return response;
}

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

unsafePrompt := "I support Martians Soccer Club and I think Jupiterians Football Club sucks! " +
	"Write a ironic phrase about them including expletives."

config := &genai.GenerateContentConfig{
	SafetySettings: []*genai.SafetySetting{
		{
			Category:  "HARM_CATEGORY_HATE_SPEECH",
			Threshold: "BLOCK_MEDIUM_AND_ABOVE",
		},
		{
			Category:  "HARM_CATEGORY_HARASSMENT",
			Threshold: "BLOCK_ONLY_HIGH",
		},
	},
}
contents := []*genai.Content{
	genai.NewContentFromText(unsafePrompt, genai.RoleUser),
}
response, err := client.Models.GenerateContent(ctx, "gemini-2.0-flash", contents, config)
if err != nil {
	log.Fatal(err)
}

// Print the generated text.
text := response.Text()
fmt.Println("Generated text:", text)

// Print the and safety ratings from the first candidate.
if len(response.Candidates) > 0 {
	fmt.Println("Finish reason:", response.Candidates[0].FinishReason)
	safetyRatings, err := json.MarshalIndent(response.Candidates[0].SafetyRatings, "", "  ")
	if err != nil {
		return err
	}
	fmt.Println("Safety ratings:", string(safetyRatings))
} else {
	fmt.Println("No candidate returned.")
}

শেল

echo '{
    "safetySettings": [
        {"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_ONLY_HIGH"},
        {"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_MEDIUM_AND_ABOVE"}
    ],
    "contents": [{
        "parts":[{
            "text": "'I support Martians Soccer Club and I think Jupiterians Football Club sucks! Write a ironic phrase about them.'"}]}]}' > request.json

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY" \
    -H 'Content-Type: application/json' \
    -X POST \
    -d @request.json 2> /dev/null

জাভা

Client client = new Client();

String unsafePrompt = """
         I support Martians Soccer Club and I think Jupiterians Football Club sucks!
         Write a ironic phrase about them including expletives.
        """;

GenerateContentConfig config =
        GenerateContentConfig.builder()
                .safetySettings(Arrays.asList(
                        SafetySetting.builder()
                                .category("HARM_CATEGORY_HATE_SPEECH")
                                .threshold("BLOCK_MEDIUM_AND_ABOVE")
                                .build(),
                        SafetySetting.builder()
                                .category("HARM_CATEGORY_HARASSMENT")
                                .threshold("BLOCK_ONLY_HIGH")
                                .build()
                )).build();

GenerateContentResponse response =
        client.models.generateContent(
                "gemini-2.0-flash",
                unsafePrompt,
                config);

try {
    System.out.println(response.text());
} catch (Exception e) {
    System.out.println("No information generated by the model");
}

System.out.println(response.candidates().get().getFirst().safetyRatings());

সিস্টেম নির্দেশনা

পাইথন

from google import genai
from google.genai import types

client = genai.Client()
response = client.models.generate_content(
    model="gemini-2.0-flash",
    contents="Good morning! How are you?",
    config=types.GenerateContentConfig(
        system_instruction="You are a cat. Your name is Neko."
    ),
)
print(response.text)

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });
const response = await ai.models.generateContent({
  model: "gemini-2.0-flash",
  contents: "Good morning! How are you?",
  config: {
    systemInstruction: "You are a cat. Your name is Neko.",
  },
});
console.log(response.text);

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

// Construct the user message contents.
contents := []*genai.Content{
	genai.NewContentFromText("Good morning! How are you?", genai.RoleUser),
}

// Set the system instruction as a *genai.Content.
config := &genai.GenerateContentConfig{
	SystemInstruction: genai.NewContentFromText("You are a cat. Your name is Neko.", genai.RoleUser),
}

response, err := client.Models.GenerateContent(ctx, "gemini-2.0-flash", contents, config)
if err != nil {
	log.Fatal(err)
}
printResponse(response)

শেল

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=$GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-d '{ "system_instruction": {
    "parts":
      { "text": "You are a cat. Your name is Neko."}},
    "contents": {
      "parts": {
        "text": "Hello there"}}}'

জাভা

Client client = new Client();

Part textPart = Part.builder().text("You are a cat. Your name is Neko.").build();

Content content = Content.builder().role("system").parts(ImmutableList.of(textPart)).build();

GenerateContentConfig config = GenerateContentConfig.builder()
        .systemInstruction(content)
        .build();

GenerateContentResponse response =
        client.models.generateContent(
                "gemini-2.0-flash",
                "Good morning! How are you?",
                config);

System.out.println(response.text());

প্রতিক্রিয়া শরীর

সফল হলে, প্রতিক্রিয়া বডিতে GenerateContentResponse এর একটি উদাহরণ থাকে।

পদ্ধতি: models.streamGenerateContent

একটি ইনপুট GenerateContentRequest দেওয়া মডেল থেকে একটি স্ট্রীমড প্রতিক্রিয়া তৈরি করে।

শেষবিন্দু

পোস্ট https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:streamGenerateContent

পাথ প্যারামিটার

model string

প্রয়োজন। সমাপ্তি তৈরি করার জন্য ব্যবহার করা Model নাম।

বিন্যাস: models/{model} । এটি ফর্ম models/{model} লাগে।

শরীরের অনুরোধ

অনুরোধের অংশে নিম্নলিখিত কাঠামো সহ ডেটা রয়েছে:

ক্ষেত্র
contents[] object ( Content )

প্রয়োজন। মডেলের সাথে বর্তমান কথোপকথনের বিষয়বস্তু।

একক-পালা প্রশ্নের জন্য, এটি একটি একক উদাহরণ। চ্যাটের মতো বহু-মুখী প্রশ্নের জন্য, এটি একটি পুনরাবৃত্ত ক্ষেত্র যাতে কথোপকথনের ইতিহাস এবং সর্বশেষ অনুরোধ থাকে।

tools[] object ( Tool )

ঐচ্ছিক। পরবর্তী প্রতিক্রিয়া তৈরি করতে Model ব্যবহার করতে পারে Tools একটি তালিকা৷

একটি Tool হল কোডের একটি অংশ যা Model জ্ঞান এবং সুযোগের বাইরে একটি ক্রিয়া সম্পাদন করতে বা ক্রিয়াগুলির সেট করার জন্য সিস্টেমকে বহিরাগত সিস্টেমের সাথে যোগাযোগ করতে সক্ষম করে। সমর্থিত Tool হল Function এবং codeExecution । আরও জানতে ফাংশন কলিং এবং কোড এক্সিকিউশন গাইডগুলি পড়ুন।

toolConfig object ( ToolConfig )

ঐচ্ছিক। অনুরোধে উল্লেখ করা যেকোনো Tool জন্য টুল কনফিগারেশন। একটি ব্যবহারের উদাহরণের জন্য ফাংশন কলিং গাইড পড়ুন।

safetySettings[] object ( SafetySetting )

ঐচ্ছিক। অনিরাপদ বিষয়বস্তু ব্লক করার জন্য অনন্য SafetySetting দৃষ্টান্তের একটি তালিকা।

এটি GenerateContentRequest.contents এবং GenerateContentResponse.candidates এ প্রয়োগ করা হবে। প্রতিটি SafetyCategory প্রকারের জন্য একাধিক সেটিং থাকা উচিত নয়৷ এপিআই এই সেটিংস দ্বারা নির্ধারিত থ্রেশহোল্ড পূরণ করতে ব্যর্থ যে কোনো বিষয়বস্তু এবং প্রতিক্রিয়া ব্লক করবে। এই তালিকাটি সেফটিসেটিংসে নির্দিষ্ট করা প্রতিটি SafetyCategory জন্য ডিফল্ট সেটিংস ওভাররাইড করে। যদি তালিকায় প্রদত্ত একটি প্রদত্ত SafetyCategory জন্য কোনো SafetySetting না থাকে, তাহলে API সেই বিভাগের জন্য ডিফল্ট নিরাপত্তা সেটিং ব্যবহার করবে। ক্ষতির বিভাগগুলি HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT, HARM_CATEGORY_CIVIC_INTEGRITY সমর্থিত৷ উপলব্ধ নিরাপত্তা সেটিংস সম্পর্কে বিস্তারিত তথ্যের জন্য গাইড পড়ুন। এছাড়াও আপনার AI অ্যাপ্লিকেশনগুলিতে সুরক্ষা বিবেচনাগুলি কীভাবে অন্তর্ভুক্ত করবেন তা শিখতে সুরক্ষা নির্দেশিকা পড়ুন।

systemInstruction object ( Content )

ঐচ্ছিক। বিকাশকারী সেট সিস্টেম নির্দেশনা(গুলি) । বর্তমানে, শুধুমাত্র টেক্সট.

generationConfig object ( GenerationConfig )

ঐচ্ছিক। মডেল জেনারেশন এবং আউটপুটগুলির জন্য কনফিগারেশন বিকল্প।

cachedContent string

ঐচ্ছিক। ভবিষ্যদ্বাণী পরিবেশনের জন্য প্রসঙ্গ হিসাবে ব্যবহার করার জন্য ক্যাশ করা সামগ্রীর নাম৷ বিন্যাস: cachedContents/{cachedContent}

উদাহরণ অনুরোধ

পাঠ্য

পাইথন

from google import genai

client = genai.Client()
response = client.models.generate_content_stream(
    model="gemini-2.0-flash", contents="Write a story about a magic backpack."
)
for chunk in response:
    print(chunk.text)
    print("_" * 80)

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });

const response = await ai.models.generateContentStream({
  model: "gemini-2.0-flash",
  contents: "Write a story about a magic backpack.",
});
let text = "";
for await (const chunk of response) {
  console.log(chunk.text);
  text += chunk.text;
}

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}
contents := []*genai.Content{
	genai.NewContentFromText("Write a story about a magic backpack.", genai.RoleUser),
}
for response, err := range client.Models.GenerateContentStream(
	ctx,
	"gemini-2.0-flash",
	contents,
	nil,
) {
	if err != nil {
		log.Fatal(err)
	}
	fmt.Print(response.Candidates[0].Content.Parts[0].Text)
}

শেল

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:streamGenerateContent?alt=sse&key=${GEMINI_API_KEY}" \
        -H 'Content-Type: application/json' \
        --no-buffer \
        -d '{ "contents":[{"parts":[{"text": "Write a story about a magic backpack."}]}]}'

জাভা

Client client = new Client();

ResponseStream<GenerateContentResponse> responseStream =
        client.models.generateContentStream(
                "gemini-2.0-flash",
                "Write a story about a magic backpack.",
                null);

StringBuilder response = new StringBuilder();
for (GenerateContentResponse res : responseStream) {
    System.out.print(res.text());
    response.append(res.text());
}

responseStream.close();

ছবি

পাইথন

from google import genai
import PIL.Image

client = genai.Client()
organ = PIL.Image.open(media / "organ.jpg")
response = client.models.generate_content_stream(
    model="gemini-2.0-flash", contents=["Tell me about this instrument", organ]
)
for chunk in response:
    print(chunk.text)
    print("_" * 80)

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });

const organ = await ai.files.upload({
  file: path.join(media, "organ.jpg"),
});

const response = await ai.models.generateContentStream({
  model: "gemini-2.0-flash",
  contents: [
    createUserContent([
      "Tell me about this instrument", 
      createPartFromUri(organ.uri, organ.mimeType)
    ]),
  ],
});
let text = "";
for await (const chunk of response) {
  console.log(chunk.text);
  text += chunk.text;
}

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}
file, err := client.Files.UploadFromPath(
	ctx, 
	filepath.Join(getMedia(), "organ.jpg"), 
	&genai.UploadFileConfig{
		MIMEType : "image/jpeg",
	},
)
if err != nil {
	log.Fatal(err)
}
parts := []*genai.Part{
	genai.NewPartFromText("Tell me about this instrument"),
	genai.NewPartFromURI(file.URI, file.MIMEType),
}
contents := []*genai.Content{
	genai.NewContentFromParts(parts, genai.RoleUser),
}
for response, err := range client.Models.GenerateContentStream(
	ctx,
	"gemini-2.0-flash",
	contents,
	nil,
) {
	if err != nil {
		log.Fatal(err)
	}
	fmt.Print(response.Candidates[0].Content.Parts[0].Text)
}

শেল

cat > "$TEMP_JSON" << EOF
{
  "contents": [{
    "parts":[
      {"text": "Tell me about this instrument"},
      {
        "inline_data": {
          "mime_type":"image/jpeg",
          "data": "$(cat "$TEMP_B64")"
        }
      }
    ]
  }]
}
EOF

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:streamGenerateContent?alt=sse&key=$GEMINI_API_KEY" \
    -H 'Content-Type: application/json' \
    -X POST \
    -d "@$TEMP_JSON" 2> /dev/null

জাভা

Client client = new Client();

String path = media_path + "organ.jpg";
byte[] imageData = Files.readAllBytes(Paths.get(path));

Content content =
        Content.fromParts(
                Part.fromText("Tell me about this instrument."),
                Part.fromBytes(imageData, "image/jpeg"));


ResponseStream<GenerateContentResponse> responseStream =
        client.models.generateContentStream(
                "gemini-2.0-flash",
                content,
                null);

StringBuilder response = new StringBuilder();
for (GenerateContentResponse res : responseStream) {
    System.out.print(res.text());
    response.append(res.text());
}

responseStream.close();

অডিও

পাইথন

from google import genai

client = genai.Client()
sample_audio = client.files.upload(file=media / "sample.mp3")
response = client.models.generate_content_stream(
    model="gemini-2.0-flash",
    contents=["Give me a summary of this audio file.", sample_audio],
)
for chunk in response:
    print(chunk.text)
    print("_" * 80)

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

file, err := client.Files.UploadFromPath(
	ctx, 
	filepath.Join(getMedia(), "sample.mp3"), 
	&genai.UploadFileConfig{
		MIMEType : "audio/mpeg",
	},
)
if err != nil {
	log.Fatal(err)
}

parts := []*genai.Part{
	genai.NewPartFromText("Give me a summary of this audio file."),
	genai.NewPartFromURI(file.URI, file.MIMEType),
}

contents := []*genai.Content{
	genai.NewContentFromParts(parts, genai.RoleUser),
}

for result, err := range client.Models.GenerateContentStream(
	ctx,
	"gemini-2.0-flash",
	contents,
	nil,
) {
	if err != nil {
		log.Fatal(err)
	}
	fmt.Print(result.Candidates[0].Content.Parts[0].Text)
}

শেল

# Use File API to upload audio data to API request.
MIME_TYPE=$(file -b --mime-type "${AUDIO_PATH}")
NUM_BYTES=$(wc -c < "${AUDIO_PATH}")
DISPLAY_NAME=AUDIO

tmp_header_file=upload-header.tmp

# Initial resumable request defining metadata.
# The upload url is in the response headers dump them to a file.
curl "${BASE_URL}/upload/v1beta/files?key=${GEMINI_API_KEY}" \
  -D upload-header.tmp \
  -H "X-Goog-Upload-Protocol: resumable" \
  -H "X-Goog-Upload-Command: start" \
  -H "X-Goog-Upload-Header-Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Header-Content-Type: ${MIME_TYPE}" \
  -H "Content-Type: application/json" \
  -d "{'file': {'display_name': '${DISPLAY_NAME}'}}" 2> /dev/null

upload_url=$(grep -i "x-goog-upload-url: " "${tmp_header_file}" | cut -d" " -f2 | tr -d "\r")
rm "${tmp_header_file}"

# Upload the actual bytes.
curl "${upload_url}" \
  -H "Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Offset: 0" \
  -H "X-Goog-Upload-Command: upload, finalize" \
  --data-binary "@${AUDIO_PATH}" 2> /dev/null > file_info.json

file_uri=$(jq ".file.uri" file_info.json)
echo file_uri=$file_uri

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:streamGenerateContent?alt=sse&key=$GEMINI_API_KEY" \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
      "contents": [{
        "parts":[
          {"text": "Please describe this file."},
          {"file_data":{"mime_type": "audio/mpeg", "file_uri": '$file_uri'}}]
        }]
       }' 2> /dev/null > response.json

cat response.json
echo

ভিডিও

পাইথন

from google import genai
import time

client = genai.Client()
# Video clip (CC BY 3.0) from https://peach.blender.org/download/
myfile = client.files.upload(file=media / "Big_Buck_Bunny.mp4")
print(f"{myfile=}")

# Poll until the video file is completely processed (state becomes ACTIVE).
while not myfile.state or myfile.state.name != "ACTIVE":
    print("Processing video...")
    print("File state:", myfile.state)
    time.sleep(5)
    myfile = client.files.get(name=myfile.name)

response = client.models.generate_content_stream(
    model="gemini-2.0-flash", contents=[myfile, "Describe this video clip"]
)
for chunk in response:
    print(chunk.text)
    print("_" * 80)

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });

let video = await ai.files.upload({
  file: path.join(media, 'Big_Buck_Bunny.mp4'),
});

// Poll until the video file is completely processed (state becomes ACTIVE).
while (!video.state || video.state.toString() !== 'ACTIVE') {
  console.log('Processing video...');
  console.log('File state: ', video.state);
  await sleep(5000);
  video = await ai.files.get({name: video.name});
}

const response = await ai.models.generateContentStream({
  model: "gemini-2.0-flash",
  contents: [
    createUserContent([
      "Describe this video clip",
      createPartFromUri(video.uri, video.mimeType),
    ]),
  ],
});
let text = "";
for await (const chunk of response) {
  console.log(chunk.text);
  text += chunk.text;
}

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

file, err := client.Files.UploadFromPath(
	ctx, 
	filepath.Join(getMedia(), "Big_Buck_Bunny.mp4"), 
	&genai.UploadFileConfig{
		MIMEType : "video/mp4",
	},
)
if err != nil {
	log.Fatal(err)
}

// Poll until the video file is completely processed (state becomes ACTIVE).
for file.State == genai.FileStateUnspecified || file.State != genai.FileStateActive {
	fmt.Println("Processing video...")
	fmt.Println("File state:", file.State)
	time.Sleep(5 * time.Second)

	file, err = client.Files.Get(ctx, file.Name, nil)
	if err != nil {
		log.Fatal(err)
	}
}

parts := []*genai.Part{
	genai.NewPartFromText("Describe this video clip"),
	genai.NewPartFromURI(file.URI, file.MIMEType),
}

contents := []*genai.Content{
	genai.NewContentFromParts(parts, genai.RoleUser),
}

for result, err := range client.Models.GenerateContentStream(
	ctx,
	"gemini-2.0-flash",
	contents,
	nil,
) {
	if err != nil {
		log.Fatal(err)
	}
	fmt.Print(result.Candidates[0].Content.Parts[0].Text)
}

শেল

# Use File API to upload audio data to API request.
MIME_TYPE=$(file -b --mime-type "${VIDEO_PATH}")
NUM_BYTES=$(wc -c < "${VIDEO_PATH}")
DISPLAY_NAME=VIDEO_PATH

# Initial resumable request defining metadata.
# The upload url is in the response headers dump them to a file.
curl "${BASE_URL}/upload/v1beta/files?key=${GEMINI_API_KEY}" \
  -D upload-header.tmp \
  -H "X-Goog-Upload-Protocol: resumable" \
  -H "X-Goog-Upload-Command: start" \
  -H "X-Goog-Upload-Header-Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Header-Content-Type: ${MIME_TYPE}" \
  -H "Content-Type: application/json" \
  -d "{'file': {'display_name': '${DISPLAY_NAME}'}}" 2> /dev/null

upload_url=$(grep -i "x-goog-upload-url: " "${tmp_header_file}" | cut -d" " -f2 | tr -d "\r")
rm "${tmp_header_file}"

# Upload the actual bytes.
curl "${upload_url}" \
  -H "Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Offset: 0" \
  -H "X-Goog-Upload-Command: upload, finalize" \
  --data-binary "@${VIDEO_PATH}" 2> /dev/null > file_info.json

file_uri=$(jq ".file.uri" file_info.json)
echo file_uri=$file_uri

state=$(jq ".file.state" file_info.json)
echo state=$state

while [[ "($state)" = *"PROCESSING"* ]];
do
  echo "Processing video..."
  sleep 5
  # Get the file of interest to check state
  curl https://generativelanguage.googleapis.com/v1beta/files/$name > file_info.json
  state=$(jq ".file.state" file_info.json)
done

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:streamGenerateContent?alt=sse&key=$GEMINI_API_KEY" \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
      "contents": [{
        "parts":[
          {"text": "Please describe this file."},
          {"file_data":{"mime_type": "video/mp4", "file_uri": '$file_uri'}}]
        }]
       }' 2> /dev/null > response.json

cat response.json
echo

পিডিএফ

পাইথন

from google import genai

client = genai.Client()
sample_pdf = client.files.upload(file=media / "test.pdf")
response = client.models.generate_content_stream(
    model="gemini-2.0-flash",
    contents=["Give me a summary of this document:", sample_pdf],
)

for chunk in response:
    print(chunk.text)
    print("_" * 80)

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

file, err := client.Files.UploadFromPath(
	ctx, 
	filepath.Join(getMedia(), "test.pdf"), 
	&genai.UploadFileConfig{
		MIMEType : "application/pdf",
	},
)
if err != nil {
	log.Fatal(err)
}

parts := []*genai.Part{
	genai.NewPartFromText("Give me a summary of this document:"),
	genai.NewPartFromURI(file.URI, file.MIMEType),
}

contents := []*genai.Content{
	genai.NewContentFromParts(parts, genai.RoleUser),
}

for result, err := range client.Models.GenerateContentStream(
	ctx,
	"gemini-2.0-flash",
	contents,
	nil,
) {
	if err != nil {
		log.Fatal(err)
	}
	fmt.Print(result.Candidates[0].Content.Parts[0].Text)
}

শেল

MIME_TYPE=$(file -b --mime-type "${PDF_PATH}")
NUM_BYTES=$(wc -c < "${PDF_PATH}")
DISPLAY_NAME=TEXT


echo $MIME_TYPE
tmp_header_file=upload-header.tmp

# Initial resumable request defining metadata.
# The upload url is in the response headers dump them to a file.
curl "${BASE_URL}/upload/v1beta/files?key=${GEMINI_API_KEY}" \
  -D upload-header.tmp \
  -H "X-Goog-Upload-Protocol: resumable" \
  -H "X-Goog-Upload-Command: start" \
  -H "X-Goog-Upload-Header-Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Header-Content-Type: ${MIME_TYPE}" \
  -H "Content-Type: application/json" \
  -d "{'file': {'display_name': '${DISPLAY_NAME}'}}" 2> /dev/null

upload_url=$(grep -i "x-goog-upload-url: " "${tmp_header_file}" | cut -d" " -f2 | tr -d "\r")
rm "${tmp_header_file}"

# Upload the actual bytes.
curl "${upload_url}" \
  -H "Content-Length: ${NUM_BYTES}" \
  -H "X-Goog-Upload-Offset: 0" \
  -H "X-Goog-Upload-Command: upload, finalize" \
  --data-binary "@${PDF_PATH}" 2> /dev/null > file_info.json

file_uri=$(jq ".file.uri" file_info.json)
echo file_uri=$file_uri

# Now generate content using that file
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:streamGenerateContent?alt=sse&key=$GEMINI_API_KEY" \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
      "contents": [{
        "parts":[
          {"text": "Can you add a few more lines to this poem?"},
          {"file_data":{"mime_type": "application/pdf", "file_uri": '$file_uri'}}]
        }]
       }' 2> /dev/null > response.json

cat response.json
echo

চ্যাট

পাইথন

from google import genai
from google.genai import types

client = genai.Client()
chat = client.chats.create(
    model="gemini-2.0-flash",
    history=[
        types.Content(role="user", parts=[types.Part(text="Hello")]),
        types.Content(
            role="model",
            parts=[
                types.Part(
                    text="Great to meet you. What would you like to know?"
                )
            ],
        ),
    ],
)
response = chat.send_message_stream(message="I have 2 dogs in my house.")
for chunk in response:
    print(chunk.text)
    print("_" * 80)
response = chat.send_message_stream(message="How many paws are in my house?")
for chunk in response:
    print(chunk.text)
    print("_" * 80)

print(chat.get_history())

Node.js

// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });
const chat = ai.chats.create({
  model: "gemini-2.0-flash",
  history: [
    {
      role: "user",
      parts: [{ text: "Hello" }],
    },
    {
      role: "model",
      parts: [{ text: "Great to meet you. What would you like to know?" }],
    },
  ],
});

console.log("Streaming response for first message:");
const stream1 = await chat.sendMessageStream({
  message: "I have 2 dogs in my house.",
});
for await (const chunk of stream1) {
  console.log(chunk.text);
  console.log("_".repeat(80));
}

console.log("Streaming response for second message:");
const stream2 = await chat.sendMessageStream({
  message: "How many paws are in my house?",
});
for await (const chunk of stream2) {
  console.log(chunk.text);
  console.log("_".repeat(80));
}

console.log(chat.getHistory());

যাও

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

history := []*genai.Content{
	genai.NewContentFromText("Hello", genai.RoleUser),
	genai.NewContentFromText("Great to meet you. What would you like to know?", genai.RoleModel),
}
chat, err := client.Chats.Create(ctx, "gemini-2.0-flash", nil, history)
if err != nil {
	log.Fatal(err)
}

for chunk, err := range chat.SendMessageStream(ctx, genai.Part{Text: "I have 2 dogs in my house."}) {
	if err != nil {
		log.Fatal(err)
	}
	fmt.Println(chunk.Text())
	fmt.Println(strings.Repeat("_", 64))
}

for chunk, err := range chat.SendMessageStream(ctx, genai.Part{Text: "How many paws are in my house?"}) {
	if err != nil {
		log.Fatal(err)
	}
	fmt.Println(chunk.Text())
	fmt.Println(strings.Repeat("_", 64))
}

fmt.Println(chat.History(false))

শেল

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:streamGenerateContent?alt=sse&key=$GEMINI_API_KEY \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
      "contents": [
        {"role":"user",
         "parts":[{
           "text": "Hello"}]},
        {"role": "model",
         "parts":[{
           "text": "Great to meet you. What would you like to know?"}]},
        {"role":"user",
         "parts":[{
           "text": "I have two dogs in my house. How many paws are in my house?"}]},
      ]
    }' 2> /dev/null | grep "text"

প্রতিক্রিয়া শরীর

সফল হলে, প্রতিক্রিয়া বডিতে GenerateContentResponse দৃষ্টান্তের একটি স্ট্রীম থাকে।

কন্টেন্ট রেসপন্স তৈরি করুন

একাধিক প্রার্থীর প্রতিক্রিয়া সমর্থনকারী মডেল থেকে প্রতিক্রিয়া।

GenerateContentResponse.prompt_feedback এ এবং প্রত্যেক প্রার্থীর জন্য finishReason এবং safetyRatings এ উভয় প্রম্পটের জন্য নিরাপত্তা রেটিং এবং কন্টেন্ট ফিল্টারিং রিপোর্ট করা হয়েছে। এপিআই: - অনুরোধ করা সমস্ত প্রার্থী বা তাদের কেউই ফেরত দেয় না - শুধুমাত্র প্রম্পটে কিছু ভুল থাকলেই কোনও প্রার্থীকে ফেরত দেয় না ( promptFeedback চেক করুন) - finishReason এবং safetyRatings -এ প্রতিটি প্রার্থীর প্রতিক্রিয়া প্রতিবেদন করে।

ক্ষেত্র
candidates[] object ( Candidate )

মডেল থেকে প্রার্থী প্রতিক্রিয়া.

promptFeedback object ( PromptFeedback )

বিষয়বস্তু ফিল্টার সম্পর্কিত প্রম্পটের প্রতিক্রিয়া প্রদান করে।

usageMetadata object ( UsageMetadata )

শুধুমাত্র আউটপুট। প্রজন্মের অনুরোধের টোকেন ব্যবহারের মেটাডেটা।

modelVersion string

শুধুমাত্র আউটপুট। মডেল সংস্করণ প্রতিক্রিয়া তৈরি করতে ব্যবহৃত.

responseId string

শুধুমাত্র আউটপুট। প্রতিক্রিয়া আইডি প্রতিটি প্রতিক্রিয়া সনাক্ত করতে ব্যবহৃত হয়।

JSON প্রতিনিধিত্ব
{
  "candidates": [
    {
      object (Candidate)
    }
  ],
  "promptFeedback": {
    object (PromptFeedback)
  },
  "usageMetadata": {
    object (UsageMetadata)
  },
  "modelVersion": string,
  "responseId": string
}

প্রম্পটফিডব্যাক

GenerateContentRequest.content এ নির্দিষ্ট করা প্রম্পট ফিডব্যাক মেটাডেটার একটি সেট।

ক্ষেত্র
blockReason enum ( BlockReason )

ঐচ্ছিক। সেট করা হলে, প্রম্পটটি ব্লক করা হয়েছে এবং কোনো প্রার্থীকে ফেরত দেওয়া হবে না। প্রম্পট রিফ্রেস করুন।

safetyRatings[] object ( SafetyRating )

প্রম্পটের নিরাপত্তার জন্য রেটিং। প্রতি বিভাগে সর্বোচ্চ একটি রেটিং আছে।

JSON প্রতিনিধিত্ব
{
  "blockReason": enum (BlockReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ]
}

ব্লকরিজন

কেন প্রম্পট ব্লক করা হয়েছে তা উল্লেখ করে।

এনামস
BLOCK_REASON_UNSPECIFIED ডিফল্ট মান। এই মান অব্যবহৃত.
SAFETY নিরাপত্তার কারণে প্রম্পট ব্লক করা হয়েছে। কোন নিরাপত্তা বিভাগ এটি অবরুদ্ধ করেছে তা বোঝার জন্য safetyRatings পরীক্ষা করুন।
OTHER অজানা কারণে প্রম্পট ব্লক করা হয়েছে.
BLOCKLIST পরিভাষা ব্লকলিস্ট থেকে অন্তর্ভুক্ত শর্তাবলীর কারণে প্রম্পটটি ব্লক করা হয়েছে।
PROHIBITED_CONTENT নিষিদ্ধ বিষয়বস্তুর কারণে প্রম্পট ব্লক করা হয়েছে।
IMAGE_SAFETY অনিরাপদ ইমেজ তৈরির বিষয়বস্তুর কারণে প্রার্থীদের ব্লক করা হয়েছে।

মেটাডেটা ব্যবহার

প্রজন্মের অনুরোধের টোকেন ব্যবহারের উপর মেটাডেটা।

ক্ষেত্র
promptTokenCount integer

প্রম্পটে টোকেনের সংখ্যা। যখন cachedContent সেট করা হয়, তখনও এটি মোট কার্যকর প্রম্পট আকার যার অর্থ ক্যাশে করা সামগ্রীতে টোকেনের সংখ্যা অন্তর্ভুক্ত।

cachedContentTokenCount integer

প্রম্পটের ক্যাশ করা অংশে টোকেনের সংখ্যা (ক্যাশ করা বিষয়বস্তু)

candidatesTokenCount integer

সমস্ত উত্পন্ন প্রতিক্রিয়া প্রার্থীদের জুড়ে টোকেনের মোট সংখ্যা।

toolUsePromptTokenCount integer

শুধুমাত্র আউটপুট। টুল-ব্যবহার প্রম্পটে উপস্থিত টোকেনের সংখ্যা।

thoughtsTokenCount integer

শুধুমাত্র আউটপুট। চিন্তাভাবনার মডেলের জন্য চিন্তার টোকেনের সংখ্যা।

totalTokenCount integer

প্রজন্মের অনুরোধের জন্য মোট টোকেন গণনা (প্রম্পট + প্রতিক্রিয়া প্রার্থী)।

promptTokensDetails[] object ( ModalityTokenCount )

শুধুমাত্র আউটপুট। অনুরোধ ইনপুট প্রক্রিয়া করা হয়েছে যে পদ্ধতির তালিকা.

cacheTokensDetails[] object ( ModalityTokenCount )

শুধুমাত্র আউটপুট। অনুরোধ ইনপুটে ক্যাশে করা বিষয়বস্তুর পদ্ধতির তালিকা।

candidatesTokensDetails[] object ( ModalityTokenCount )

শুধুমাত্র আউটপুট। প্রতিক্রিয়াতে ফিরে আসা পদ্ধতির তালিকা।

toolUsePromptTokensDetails[] object ( ModalityTokenCount )

শুধুমাত্র আউটপুট। টুল-ব্যবহারের অনুরোধ ইনপুটগুলির জন্য প্রক্রিয়াকৃত পদ্ধতির তালিকা।

JSON প্রতিনিধিত্ব
{
  "promptTokenCount": integer,
  "cachedContentTokenCount": integer,
  "candidatesTokenCount": integer,
  "toolUsePromptTokenCount": integer,
  "thoughtsTokenCount": integer,
  "totalTokenCount": integer,
  "promptTokensDetails": [
    {
      object (ModalityTokenCount)
    }
  ],
  "cacheTokensDetails": [
    {
      object (ModalityTokenCount)
    }
  ],
  "candidatesTokensDetails": [
    {
      object (ModalityTokenCount)
    }
  ],
  "toolUsePromptTokensDetails": [
    {
      object (ModalityTokenCount)
    }
  ]
}

প্রার্থী

মডেল থেকে উত্পন্ন একটি প্রতিক্রিয়া প্রার্থী.

ক্ষেত্র
content object ( Content )

শুধুমাত্র আউটপুট। উত্পন্ন সামগ্রী মডেল থেকে ফিরে.

finishReason enum ( FinishReason )

ঐচ্ছিক। শুধুমাত্র আউটপুট। যে কারণে মডেলটি টোকেন তৈরি করা বন্ধ করে দিয়েছে।

খালি থাকলে, মডেলটি টোকেন তৈরি করা বন্ধ করেনি।

safetyRatings[] object ( SafetyRating )

একটি প্রতিক্রিয়া প্রার্থীর নিরাপত্তার জন্য রেটিং তালিকা.

প্রতি বিভাগে সর্বোচ্চ একটি রেটিং আছে।

citationMetadata object ( CitationMetadata )

শুধুমাত্র আউটপুট। মডেল-উত্পন্ন প্রার্থীর জন্য উদ্ধৃতি তথ্য।

এই ক্ষেত্রটি content অন্তর্ভুক্ত যেকোন পাঠ্যের জন্য আবৃত্তির তথ্য দিয়ে পরিপূর্ণ হতে পারে। এগুলি এমন প্যাসেজ যা ভিত্তিগত LLM-এর প্রশিক্ষণ ডেটাতে কপিরাইটযুক্ত উপাদান থেকে "আবৃত্তি করা" হয়।

tokenCount integer

শুধুমাত্র আউটপুট। এই প্রার্থীর জন্য টোকেন গণনা।

groundingAttributions[] object ( GroundingAttribution )

শুধুমাত্র আউটপুট। উৎসের জন্য অ্যাট্রিবিউশন তথ্য যা গ্রাউন্ডেড উত্তরে অবদান রাখে।

এই ক্ষেত্রটি GenerateAnswer কলের জন্য জনবহুল।

groundingMetadata object ( GroundingMetadata )

শুধুমাত্র আউটপুট। প্রার্থীর জন্য গ্রাউন্ডিং মেটাডেটা।

এই ক্ষেত্রটি GenerateContent কলের জন্য জনবহুল।

avgLogprobs number

শুধুমাত্র আউটপুট। প্রার্থীর গড় লগ সম্ভাব্যতা স্কোর।

logprobsResult object ( LogprobsResult )

শুধুমাত্র আউটপুট। প্রতিক্রিয়া টোকেন এবং শীর্ষ টোকেনগুলির জন্য লগ-সম্ভাবনা স্কোর

urlContextMetadata object ( UrlContextMetadata )

শুধুমাত্র আউটপুট। url প্রসঙ্গ পুনরুদ্ধার টুল সম্পর্কিত মেটাডেটা।

index integer

শুধুমাত্র আউটপুট। সাড়া প্রার্থীদের তালিকায় প্রার্থীর সূচক।

JSON প্রতিনিধিত্ব
{
  "content": {
    object (Content)
  },
  "finishReason": enum (FinishReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  },
  "tokenCount": integer,
  "groundingAttributions": [
    {
      object (GroundingAttribution)
    }
  ],
  "groundingMetadata": {
    object (GroundingMetadata)
  },
  "avgLogprobs": number,
  "logprobsResult": {
    object (LogprobsResult)
  },
  "urlContextMetadata": {
    object (UrlContextMetadata)
  },
  "index": integer
}

ফিনিশ রিজন

মডেলটি কেন টোকেন তৈরি করা বন্ধ করেছে তার কারণ নির্ধারণ করে।

এনামস
FINISH_REASON_UNSPECIFIED ডিফল্ট মান। এই মান অব্যবহৃত.
STOP মডেলের প্রাকৃতিক স্টপ পয়েন্ট বা প্রদত্ত স্টপ সিকোয়েন্স।
MAX_TOKENS অনুরোধে উল্লিখিত টোকেনের সর্বোচ্চ সংখ্যা পৌঁছে গেছে।
SAFETY প্রতিক্রিয়া প্রার্থী বিষয়বস্তু নিরাপত্তার কারণে পতাকাঙ্কিত করা হয়েছে.
RECITATION প্রতিক্রিয়া প্রার্থী বিষয়বস্তু আবৃত্তি কারণে পতাকাঙ্কিত করা হয়েছে.
LANGUAGE প্রতিক্রিয়া প্রার্থী বিষয়বস্তু একটি অসমর্থিত ভাষা ব্যবহার করার জন্য পতাকাঙ্কিত করা হয়েছে.
OTHER অজানা কারণ।
BLOCKLIST টোকেন তৈরি করা বন্ধ হয়ে গেছে কারণ বিষয়বস্তুতে নিষিদ্ধ পদ রয়েছে।
PROHIBITED_CONTENT সম্ভাব্য নিষিদ্ধ বিষয়বস্তুর জন্য টোকেন জেনারেশন বন্ধ হয়ে গেছে।
SPII টোকেন জেনারেশন বন্ধ হয়ে গেছে কারণ বিষয়বস্তুতে সম্ভাব্য সংবেদনশীল ব্যক্তিগত শনাক্তযোগ্য তথ্য (SPII) রয়েছে।
MALFORMED_FUNCTION_CALL মডেল দ্বারা উত্পন্ন ফাংশন কল অবৈধ.
IMAGE_SAFETY টোকেন জেনারেশন বন্ধ হয়েছে কারণ জেনারেট করা ছবিতে নিরাপত্তা লঙ্ঘন রয়েছে।
UNEXPECTED_TOOL_CALL মডেল একটি টুল কল জেনারেট করেছে কিন্তু অনুরোধে কোনো টুল সক্ষম করা হয়নি।
TOO_MANY_TOOL_CALLS মডেল পরপর অনেকগুলি টুল কল করেছে, এইভাবে সিস্টেমটি এক্সিকিউশন থেকে বেরিয়ে গেছে।

গ্রাউন্ডিং অ্যাট্রিবিউশন

একটি উৎসের জন্য অ্যাট্রিবিউশন যা একটি উত্তরে অবদান রাখে।

ক্ষেত্র
sourceId object ( AttributionSourceId )

শুধুমাত্র আউটপুট। এই অ্যাট্রিবিউশনে অবদানকারী উৎসের শনাক্তকারী।

content object ( Content )

গ্রাউন্ডিং সোর্স কন্টেন্ট যা এই অ্যাট্রিবিউশন তৈরি করে।

JSON প্রতিনিধিত্ব
{
  "sourceId": {
    object (AttributionSourceId)
  },
  "content": {
    object (Content)
  }
}

AttributionSourceId

এই অ্যাট্রিবিউশনে অবদানকারী উৎসের শনাক্তকারী।

ক্ষেত্র
source Union type
source নিম্নলিখিতগুলির মধ্যে একটি হতে পারে:
groundingPassage object ( GroundingPassageId )

একটি ইনলাইন উত্তরণ জন্য শনাক্তকারী.

semanticRetrieverChunk object ( SemanticRetrieverChunk )

শব্দার্থক পুনরুদ্ধারের মাধ্যমে আনা Chunk জন্য শনাক্তকারী।

JSON প্রতিনিধিত্ব
{

  // source
  "groundingPassage": {
    object (GroundingPassageId)
  },
  "semanticRetrieverChunk": {
    object (SemanticRetrieverChunk)
  }
  // Union type
}

GroundingPassageId

একটি GroundingPassage মধ্যে একটি অংশের জন্য শনাক্তকারী।

ক্ষেত্র
passageId string

শুধুমাত্র আউটপুট। GenerateAnswerRequest এর GroundingPassage.id সাথে মিলে যাওয়া উত্তরণের আইডি।

partIndex integer

শুধুমাত্র আউটপুট। GenerateAnswerRequest এর GroundingPassage.content এর মধ্যে থাকা অংশের সূচক।

JSON প্রতিনিধিত্ব
{
  "passageId": string,
  "partIndex": integer
}

শব্দার্থক রেট্রিভারচাঙ্ক

SemanticRetrieverConfig ব্যবহার করে GenerateAnswerRequest এ নির্দিষ্ট করা Semantic Retriever-এর মাধ্যমে পুনরুদ্ধার করা Chunk শনাক্তকারী।

ক্ষেত্র
source string

শুধুমাত্র আউটপুট। অনুরোধের SemanticRetrieverConfig.source এর সাথে মিলে যাওয়া উৎসের নাম। উদাহরণ: corpora/123 বা corpora/123/documents/abc

chunk string

শুধুমাত্র আউটপুট। অ্যাট্রিবিউটেড টেক্সট ধারণকারী Chunk নাম। উদাহরণ: corpora/123/documents/abc/chunks/xyz

JSON প্রতিনিধিত্ব
{
  "source": string,
  "chunk": string
}

গ্রাউন্ডিং মেটাডেটা

গ্রাউন্ডিং সক্ষম হলে মেটাডেটা ক্লায়েন্টে ফিরে আসে।

ক্ষেত্র
groundingChunks[] object ( GroundingChunk )

নির্দিষ্ট গ্রাউন্ডিং উত্স থেকে পুনরুদ্ধার সমর্থনকারী রেফারেন্সের তালিকা।

groundingSupports[] object ( GroundingSupport )

গ্রাউন্ডিং সমর্থনের তালিকা।

webSearchQueries[] string

নিম্নলিখিত-আপ ওয়েব অনুসন্ধানের জন্য ওয়েব অনুসন্ধান ক্যোয়ারী।

searchEntryPoint object ( SearchEntryPoint )

ঐচ্ছিক। নিম্নলিখিত ওয়েব অনুসন্ধানের জন্য Google অনুসন্ধান এন্ট্রি।

retrievalMetadata object ( RetrievalMetadata )

গ্রাউন্ডিং প্রবাহে পুনরুদ্ধারের সাথে সম্পর্কিত মেটাডেটা।

JSON প্রতিনিধিত্ব
{
  "groundingChunks": [
    {
      object (GroundingChunk)
    }
  ],
  "groundingSupports": [
    {
      object (GroundingSupport)
    }
  ],
  "webSearchQueries": [
    string
  ],
  "searchEntryPoint": {
    object (SearchEntryPoint)
  },
  "retrievalMetadata": {
    object (RetrievalMetadata)
  }
}

অনুসন্ধান এন্ট্রিপয়েন্ট

গুগল অনুসন্ধান এন্ট্রি পয়েন্ট.

ক্ষেত্র
renderedContent string

ঐচ্ছিক। ওয়েব কন্টেন্ট স্নিপেট যা একটি ওয়েব পৃষ্ঠা বা একটি অ্যাপ ওয়েবভিউতে এম্বেড করা যেতে পারে।

sdkBlob string ( bytes format)

ঐচ্ছিক। বেস64 এনকোড করা JSON <সার্চ টার্ম, সার্চ ইউআরএল> টিপলের অ্যারের প্রতিনিধিত্ব করে।

একটি base64-এনকোডেড স্ট্রিং।

JSON প্রতিনিধিত্ব
{
  "renderedContent": string,
  "sdkBlob": string
}

গ্রাউন্ডিংচাঙ্ক

গ্রাউন্ডিং খণ্ড.

ক্ষেত্র
chunk_type Union type
খণ্ড প্রকার। chunk_type নিম্নলিখিতগুলির মধ্যে একটি হতে পারে:
web object ( Web )

ওয়েব থেকে গ্রাউন্ডিং খণ্ড.

JSON প্রতিনিধিত্ব
{

  // chunk_type
  "web": {
    object (Web)
  }
  // Union type
}

ওয়েব

ওয়েব থেকে খণ্ড.

ক্ষেত্র
uri string

খণ্ডের URI রেফারেন্স।

title string

খণ্ডের শিরোনাম।

JSON প্রতিনিধিত্ব
{
  "uri": string,
  "title": string
}

গ্রাউন্ডিং সাপোর্ট

গ্রাউন্ডিং সমর্থন।

ক্ষেত্র
groundingChunkIndices[] integer

সূচকগুলির একটি তালিকা ('গ্রাউন্ডিং_চঙ্ক'-এ) দাবির সাথে সম্পর্কিত উদ্ধৃতিগুলি নির্দিষ্ট করে৷ উদাহরণস্বরূপ [1,3,4] মানে হল যে গ্রাউন্ডিং_চঙ্ক[1], গ্রাউন্ডিং_চাঙ্ক[3], গ্রাউন্ডিং_চঙ্ক[4] হল দাবির জন্য দায়ী করা পুনরুদ্ধার করা সামগ্রী।

confidenceScores[] number

সমর্থন রেফারেন্সের আত্মবিশ্বাস স্কোর. 0 থেকে 1 পর্যন্ত রেঞ্জ। 1 হল সবচেয়ে আত্মবিশ্বাসী। এই তালিকাটি অবশ্যই গ্রাউন্ডিংচাঙ্ক ইনডিসেসের মতো একই আকারের হতে হবে।

segment object ( Segment )

এই সমর্থনের অন্তর্গত বিষয়বস্তুর সেগমেন্ট।

JSON প্রতিনিধিত্ব
{
  "groundingChunkIndices": [
    integer
  ],
  "confidenceScores": [
    number
  ],
  "segment": {
    object (Segment)
  }
}

সেগমেন্ট

বিষয়বস্তুর সেগমেন্ট।

ক্ষেত্র
partIndex integer

শুধুমাত্র আউটপুট। একটি অংশ বস্তুর সূচী তার মূল বিষয়বস্তু বস্তুর মধ্যে।

startIndex integer

শুধুমাত্র আউটপুট। প্রদত্ত অংশে সূচী শুরু করুন, বাইটে পরিমাপ করুন। অংশের শুরু থেকে অফসেট, অন্তর্ভুক্ত, শূন্য থেকে শুরু।

endIndex integer

শুধুমাত্র আউটপুট। প্রদত্ত অংশে শেষ সূচক, বাইটে পরিমাপ করা হয়। অংশের শুরু থেকে অফসেট, একচেটিয়া, শূন্য থেকে শুরু।

text string

শুধুমাত্র আউটপুট। প্রতিক্রিয়া থেকে অংশের সাথে সংশ্লিষ্ট পাঠ্য।

JSON প্রতিনিধিত্ব
{
  "partIndex": integer,
  "startIndex": integer,
  "endIndex": integer,
  "text": string
}

পুনরুদ্ধার মেটাডেটা

গ্রাউন্ডিং প্রবাহে পুনরুদ্ধারের সাথে সম্পর্কিত মেটাডেটা।

ক্ষেত্র
googleSearchDynamicRetrievalScore number

ঐচ্ছিক। স্কোর নির্দেশ করে যে Google অনুসন্ধান থেকে সম্ভাব্য তথ্য প্রম্পটের উত্তর দিতে কতটা সাহায্য করতে পারে। স্কোরটি [0, 1] রেঞ্জের মধ্যে, যেখানে 0 সবচেয়ে কম এবং 1 সবচেয়ে বেশি সম্ভাবনা রয়েছে। এই স্কোরটি শুধুমাত্র তখনই জমা হয় যখন গুগল সার্চ গ্রাউন্ডিং এবং ডাইনামিক পুনরুদ্ধার সক্ষম করা থাকে। গুগল সার্চ ট্রিগার করতে হবে কিনা তা নির্ধারণ করতে এটি থ্রেশহোল্ডের সাথে তুলনা করা হবে।

JSON প্রতিনিধিত্ব
{
  "googleSearchDynamicRetrievalScore": number
}

লগপ্রবস ফলাফল

লগপ্রবস ফলাফল

ক্ষেত্র
topCandidates[] object ( TopCandidates )

দৈর্ঘ্য = ডিকোডিং ধাপের মোট সংখ্যা।

chosenCandidates[] object ( Candidate )

দৈর্ঘ্য = ডিকোডিং ধাপের মোট সংখ্যা। নির্বাচিত প্রার্থীরা শীর্ষ প্রার্থীদের মধ্যে থাকতে পারে বা নাও থাকতে পারে।

JSON প্রতিনিধিত্ব
{
  "topCandidates": [
    {
      object (TopCandidates)
    }
  ],
  "chosenCandidates": [
    {
      object (Candidate)
    }
  ]
}

শীর্ষ প্রার্থী

প্রতিটি ডিকোডিং ধাপে শীর্ষ লগ সম্ভাব্যতা সহ প্রার্থীরা।

ক্ষেত্র
candidates[] object ( Candidate )

ক্রমানুসারে লগ সম্ভাব্যতা দ্বারা সাজানো।

JSON প্রতিনিধিত্ব
{
  "candidates": [
    {
      object (Candidate)
    }
  ]
}

প্রার্থী

লগপ্রবস টোকেন এবং স্কোরের জন্য প্রার্থী।

ক্ষেত্র
token string

প্রার্থীর টোকেন স্ট্রিং মান।

tokenId integer

প্রার্থীর টোকেন আইডি মান।

logProbability number

প্রার্থীর লগ সম্ভাব্যতা.

JSON প্রতিনিধিত্ব
{
  "token": string,
  "tokenId": integer,
  "logProbability": number
}

UrlContextMetadata

url প্রসঙ্গ পুনরুদ্ধার টুল সম্পর্কিত মেটাডেটা।

ক্ষেত্র
urlMetadata[] object ( UrlMetadata )

url প্রসঙ্গের তালিকা।

JSON প্রতিনিধিত্ব
{
  "urlMetadata": [
    {
      object (UrlMetadata)
    }
  ]
}

UrlMetadata

একটি একক url পুনরুদ্ধারের প্রসঙ্গ।

ক্ষেত্র
retrievedUrl string

টুল দ্বারা পুনরুদ্ধার করা হয়েছে.

urlRetrievalStatus enum ( UrlRetrievalStatus )

ইউআরএল পুনরুদ্ধারের স্থিতি।

JSON প্রতিনিধিত্ব
{
  "retrievedUrl": string,
  "urlRetrievalStatus": enum (UrlRetrievalStatus)
}

UrlRetrieval Status

ইউআরএল পুনরুদ্ধারের স্থিতি।

এনামস
URL_RETRIEVAL_STATUS_UNSPECIFIED ডিফল্ট মান। এই মান অব্যবহৃত.
URL_RETRIEVAL_STATUS_SUCCESS ইউআরএল পুনরুদ্ধার সফল হয়েছে।
URL_RETRIEVAL_STATUS_ERROR ত্রুটির কারণে Url পুনরুদ্ধার ব্যর্থ হয়েছে৷
URL_RETRIEVAL_STATUS_PAYWALL ইউআরএল পুনরুদ্ধার ব্যর্থ হয়েছে কারণ কন্টেন্ট পেওয়ালের পিছনে রয়েছে।
URL_RETRIEVAL_STATUS_UNSAFE ইউআরএল পুনরুদ্ধার ব্যর্থ হয়েছে কারণ বিষয়বস্তু অনিরাপদ।

উদ্ধৃতি মেটাডেটা

বিষয়বস্তুর একটি অংশের জন্য উত্স বৈশিষ্ট্যগুলির একটি সংগ্রহ৷

ক্ষেত্র
citationSources[] object ( CitationSource )

একটি নির্দিষ্ট প্রতিক্রিয়ার জন্য উত্সের উদ্ধৃতি।

JSON প্রতিনিধিত্ব
{
  "citationSources": [
    {
      object (CitationSource)
    }
  ]
}

উদ্ধৃতি উৎস

একটি নির্দিষ্ট প্রতিক্রিয়ার একটি অংশের জন্য একটি উত্সের একটি উদ্ধৃতি৷

ক্ষেত্র
startIndex integer

ঐচ্ছিক। এই উৎসের জন্য দায়ী করা প্রতিক্রিয়ার সেগমেন্টের শুরু।

সূচক বাইটে পরিমাপ করা অংশের শুরু নির্দেশ করে।

endIndex integer

ঐচ্ছিক। অ্যাট্রিবিউটেড সেগমেন্টের শেষ, এক্সক্লুসিভ।

uri string

ঐচ্ছিক। URI যা পাঠ্যের একটি অংশের জন্য একটি উৎস হিসাবে দায়ী করা হয়।

license string

ঐচ্ছিক। গিটহাব প্রজেক্টের জন্য লাইসেন্স যা সেগমেন্টের জন্য উৎস হিসেবে দায়ী করা হয়েছে।

কোড উদ্ধৃতি জন্য লাইসেন্স তথ্য প্রয়োজন.

JSON প্রতিনিধিত্ব
{
  "startIndex": integer,
  "endIndex": integer,
  "uri": string,
  "license": string
}

জেনারেশন কনফিগারেশন

মডেল জেনারেশন এবং আউটপুটগুলির জন্য কনফিগারেশন বিকল্প। সমস্ত প্যারামিটার প্রতিটি মডেলের জন্য কনফিগারযোগ্য নয়।

ক্ষেত্র
stopSequences[] string

ঐচ্ছিক। ক্যারেক্টার সিকোয়েন্সের সেট (5 পর্যন্ত) যা আউটপুট জেনারেশন বন্ধ করবে। নির্দিষ্ট করা হলে, API একটি stop_sequence এর প্রথম উপস্থিতিতে থেমে যাবে। স্টপ ক্রম প্রতিক্রিয়া অংশ হিসাবে অন্তর্ভুক্ত করা হবে না.

responseMimeType string

ঐচ্ছিক। উত্পন্ন প্রার্থী পাঠ্যের MIME প্রকার। সমর্থিত MIME প্রকারগুলি হল: text/plain : (ডিফল্ট) টেক্সট আউটপুট। application/json : প্রতিক্রিয়া প্রার্থীদের মধ্যে JSON প্রতিক্রিয়া। text/x.enum : প্রতিক্রিয়া প্রার্থীদের মধ্যে একটি স্ট্রিং প্রতিক্রিয়া হিসাবে ENUM। সমস্ত সমর্থিত MIME প্রকারের টেক্সটের তালিকার জন্য ডক্স দেখুন।

responseSchema object ( Schema )

ঐচ্ছিক। জেনারেট করা প্রার্থীর পাঠ্যের আউটপুট স্কিমা। স্কিমাগুলি অবশ্যই OpenAPI স্কিমার একটি উপসেট হতে হবে এবং বস্তু, আদিম বা অ্যারে হতে পারে।

সেট করা হলে, একটি সামঞ্জস্যপূর্ণ responseMimeType ও সেট করতে হবে। সামঞ্জস্যপূর্ণ MIME প্রকার: application/json : JSON প্রতিক্রিয়ার জন্য স্কিমা। আরো বিস্তারিত জানার জন্য JSON পাঠ্য প্রজন্মের নির্দেশিকা পড়ুন।

responseJsonSchema value ( Value format)

ঐচ্ছিক। উৎপন্ন প্রতিক্রিয়ার আউটপুট স্কিমা। এটি responseSchema স্কিমার একটি বিকল্প যা JSON স্কিমা গ্রহণ করে।

সেট করা হলে, responseSchema বাদ দিতে হবে, কিন্তু responseMimeType প্রয়োজন।

যদিও সম্পূর্ণ JSON স্কিমা পাঠানো হতে পারে, সমস্ত বৈশিষ্ট্য সমর্থিত নয়। বিশেষত, শুধুমাত্র নিম্নলিখিত বৈশিষ্ট্য সমর্থিত:

  • $id
  • $defs
  • $ref
  • $anchor
  • type
  • format
  • title
  • description
  • enum (স্ট্রিং এবং সংখ্যার জন্য)
  • items
  • prefixItems
  • minItems
  • maxItems
  • minimum
  • maximum
  • anyOf
  • oneOf ( anyOf মতই ব্যাখ্যা করা হয়েছে)
  • properties
  • additionalProperties
  • required

অ-মানক propertyOrdering প্রপার্টিও সেট করা হতে পারে।

চক্রীয় রেফারেন্সগুলি সীমিত মাত্রায় আনরোল করা হয় এবং যেমন, শুধুমাত্র অপ্রয়োজনীয় বৈশিষ্ট্যের মধ্যেই ব্যবহার করা যেতে পারে। (নালযোগ্য বৈশিষ্ট্যগুলি যথেষ্ট নয়।) যদি $ref একটি সাব-স্কিমায় সেট করা থাকে, তবে $ হিসাবে শুরু হওয়া ছাড়া অন্য কোনও বৈশিষ্ট্য সেট করা যাবে না।

responseModalities[] enum ( Modality )

ঐচ্ছিক। প্রতিক্রিয়ার অনুরোধকৃত পদ্ধতি। মডেলটি ফেরত দিতে পারে এমন পদ্ধতির সেটকে প্রতিনিধিত্ব করে এবং প্রতিক্রিয়ায় আশা করা উচিত। এটি প্রতিক্রিয়ার পদ্ধতির সাথে একটি সঠিক মিল।

একটি মডেলে সমর্থিত পদ্ধতির একাধিক সমন্বয় থাকতে পারে। যদি অনুরোধ করা পদ্ধতিগুলি সমর্থিত সংমিশ্রণগুলির কোনওটির সাথে মেলে না, তবে একটি ত্রুটি ফেরত দেওয়া হবে৷

একটি খালি তালিকা শুধুমাত্র পাঠ্য অনুরোধের সমতুল্য।

candidateCount integer

ঐচ্ছিক। ফিরে আসার জন্য উত্পন্ন প্রতিক্রিয়ার সংখ্যা। সেট না থাকলে, এটি ডিফল্ট 1 হবে। অনুগ্রহ করে মনে রাখবেন যে এটি পূর্ববর্তী প্রজন্মের মডেলগুলির জন্য কাজ করে না (জেমিনি 1.0 পরিবার)

maxOutputTokens integer

ঐচ্ছিক। একটি প্রতিক্রিয়া প্রার্থীর মধ্যে অন্তর্ভুক্ত করার জন্য সর্বাধিক সংখ্যক টোকেন।

দ্রষ্টব্য: মডেল অনুসারে ডিফল্ট মান পরিবর্তিত হয়, getModel ফাংশন থেকে ফিরে আসা Model Model.output_token_limit বৈশিষ্ট্য দেখুন।

temperature number

ঐচ্ছিক। আউটপুটের এলোমেলোতা নিয়ন্ত্রণ করে।

দ্রষ্টব্য: মডেল অনুসারে ডিফল্ট মান পরিবর্তিত হয়, getModel ফাংশন থেকে ফিরে আসা Model Model.temperature বৈশিষ্ট্য দেখুন।

মান [0.0, 2.0] থেকে পরিসীমা হতে পারে।

topP number

ঐচ্ছিক। নমুনা নেওয়ার সময় বিবেচনা করতে টোকেনগুলির সর্বাধিক ক্রমবর্ধমান সম্ভাবনা৷

মডেলটি সম্মিলিত টপ-কে এবং টপ-পি (নিউক্লিয়াস) স্যাম্পলিং ব্যবহার করে।

টোকেনগুলি তাদের নির্ধারিত সম্ভাব্যতার উপর ভিত্তি করে সাজানো হয় যাতে শুধুমাত্র সবচেয়ে সম্ভাব্য টোকেনগুলিকে বিবেচনা করা হয়। টপ-কে নমুনা সরাসরি বিবেচনা করার জন্য সর্বাধিক টোকেন সীমিত করে, যখন নিউক্লিয়াস স্যাম্পলিং ক্রমবর্ধমান সম্ভাব্যতার উপর ভিত্তি করে টোকেনের সংখ্যা সীমিত করে।

দ্রষ্টব্য: ডিফল্ট মান Model অনুসারে পরিবর্তিত হয় এবং getModel ফাংশন থেকে ফেরত Model.top_p বৈশিষ্ট্য দ্বারা নির্দিষ্ট করা হয়। একটি খালি topK বৈশিষ্ট্য নির্দেশ করে যে মডেলটি টপ-কে স্যাম্পলিং প্রয়োগ করে না এবং অনুরোধে topK সেট করার অনুমতি দেয় না।

topK integer

ঐচ্ছিক। নমুনা নেওয়ার সময় সর্বাধিক সংখ্যক টোকেন বিবেচনা করতে হবে।

মিথুন মডেল টপ-পি (নিউক্লিয়াস) স্যাম্পলিং বা টপ-কে এবং নিউক্লিয়াস স্যাম্পলিং এর সংমিশ্রণ ব্যবহার করে। Top-k স্যাম্পলিং topK সবচেয়ে সম্ভাব্য টোকেনের সেট বিবেচনা করে। নিউক্লিয়াস স্যাম্পলিং সহ চলমান মডেলগুলি topK সেটিং অনুমোদন করে না।

দ্রষ্টব্য: ডিফল্ট মান Model অনুসারে পরিবর্তিত হয় এবং getModel ফাংশন থেকে ফেরত Model.top_p বৈশিষ্ট্য দ্বারা নির্দিষ্ট করা হয়। একটি খালি topK বৈশিষ্ট্য নির্দেশ করে যে মডেলটি টপ-কে স্যাম্পলিং প্রয়োগ করে না এবং অনুরোধে topK সেট করার অনুমতি দেয় না।

seed integer

ঐচ্ছিক। ডিকোডিং এ ব্যবহৃত বীজ। যদি সেট না করা থাকে, অনুরোধটি এলোমেলোভাবে উৎপন্ন বীজ ব্যবহার করে।

presencePenalty number

ঐচ্ছিক। উপস্থিতি জরিমানা পরবর্তী টোকেনের লগপ্রবগুলিতে প্রয়োগ করা হয় যদি টোকেনটি ইতিমধ্যে প্রতিক্রিয়াতে দেখা যায়।

এই জরিমানাটি বাইনারি চালু/বন্ধ এবং টোকেনটি কতবার ব্যবহার করা হয়েছে তার উপর নির্ভর করে না (প্রথমটির পরে)। একটি পেনাল্টির জন্য frequencyPenalty ব্যবহার করুন যা প্রতিটি ব্যবহারের সাথে বৃদ্ধি পায়।

একটি ইতিবাচক শাস্তি টোকেনগুলির ব্যবহারকে নিরুৎসাহিত করবে যা ইতিমধ্যে প্রতিক্রিয়াতে ব্যবহৃত হয়েছে, শব্দভাণ্ডার বৃদ্ধি করবে।

একটি নেতিবাচক জরিমানা টোকেন ব্যবহারে উৎসাহিত করবে যা ইতিমধ্যে প্রতিক্রিয়াতে ব্যবহৃত হয়েছে, শব্দভান্ডার হ্রাস করবে।

frequencyPenalty number

ঐচ্ছিক। পরবর্তী টোকেনের লগপ্রবগুলিতে প্রয়োগ করা ফ্রিকোয়েন্সি পেনাল্টি, এখন পর্যন্ত প্রতিক্রিয়াতে প্রতিটি টোকেন যতবার দেখা হয়েছে তার দ্বারা গুণিত।

একটি ইতিবাচক শাস্তি টোকেন ব্যবহারকে নিরুৎসাহিত করবে যা ইতিমধ্যেই ব্যবহৃত হয়েছে, টোকেনটি যতবার ব্যবহার করা হয়েছে তার সমানুপাতিক: একটি টোকেন যত বেশি ব্যবহার করা হবে, মডেলটির পক্ষে সেই টোকেনটি পুনরায় ব্যবহার করা তত বেশি কঠিন প্রতিক্রিয়াগুলির শব্দভাণ্ডার বৃদ্ধি করে৷

সতর্কতা: একটি নেতিবাচক জরিমানা মডেলটিকে টোকেনটি যতবার ব্যবহার করা হয়েছে তার সমানুপাতিক টোকেনগুলি পুনরায় ব্যবহার করতে উত্সাহিত করবে৷ ছোট নেতিবাচক মান প্রতিক্রিয়ার শব্দভাণ্ডার হ্রাস করবে। বৃহত্তর নেতিবাচক মানগুলি maxOutputTokens সীমাটি আঘাত না করা পর্যন্ত মডেলটিকে একটি সাধারণ টোকেন পুনরাবৃত্তি শুরু করবে।

responseLogprobs boolean

ঐচ্ছিক। যদি সত্য হয় তবে লগপ্রোবগুলি রফতানি করে প্রতিক্রিয়া হিসাবে।

logprobs integer

ঐচ্ছিক। কেবলমাত্র বৈধ যদি responseLogprobs=True । এটি Candidate.logprobs_result প্রতিটি ডিকোডিং পদক্ষেপে ফিরে আসতে শীর্ষ লগপ্রবগুলির সংখ্যা সেট করে oglogprobs_result। সংখ্যাটি অবশ্যই [1, 5] এর পরিসরে থাকতে হবে।

সক্ষমহান্সসিভিকানসওয়ার্স boolean enableEnhancedCivicAnswers

ঐচ্ছিক। বর্ধিত নাগরিক উত্তর সক্ষম করে। এটি সমস্ত মডেলের জন্য উপলব্ধ নাও হতে পারে।

speechConfig object ( SpeechConfig )

ঐচ্ছিক। স্পিচ জেনারেশন কনফিগারেশন।

thinkingConfig object ( ThinkingConfig )

ঐচ্ছিক। চিন্তাভাবনা বৈশিষ্ট্যগুলির জন্য কনফিগারেশন। এই ক্ষেত্রটি এমন মডেলগুলির জন্য সেট করা থাকলে একটি ত্রুটি ফিরিয়ে দেওয়া হবে যা চিন্তাভাবনা সমর্থন করে না।

mediaResolution enum ( MediaResolution )

ঐচ্ছিক। যদি নির্দিষ্ট করা হয় তবে নির্দিষ্ট মিডিয়া রেজোলিউশন ব্যবহার করা হবে।

JSON প্রতিনিধিত্ব
{
  "stopSequences": [
    string
  ],
  "responseMimeType": string,
  "responseSchema": {
    object (Schema)
  },
  "responseJsonSchema": value,
  "responseModalities": [
    enum (Modality)
  ],
  "candidateCount": integer,
  "maxOutputTokens": integer,
  "temperature": number,
  "topP": number,
  "topK": integer,
  "seed": integer,
  "presencePenalty": number,
  "frequencyPenalty": number,
  "responseLogprobs": boolean,
  "logprobs": integer,
  "enableEnhancedCivicAnswers": boolean,
  "speechConfig": {
    object (SpeechConfig)
  },
  "thinkingConfig": {
    object (ThinkingConfig)
  },
  "mediaResolution": enum (MediaResolution)
}

মোডালিটি

প্রতিক্রিয়ার সমর্থিত পদ্ধতিগুলি।

এনামস
MODALITY_UNSPECIFIED ডিফল্ট মান।
TEXT মডেলটি পাঠ্য ফেরত দেওয়া উচিত নির্দেশ করে।
IMAGE মডেলটি চিত্রগুলি ফিরিয়ে দেওয়া উচিত তা নির্দেশ করে।
AUDIO মডেলটি অডিও ফেরত দেওয়া উচিত নির্দেশ করে।

স্পিচকনফিগ

স্পিচ জেনারেশন কনফিগারেশন।

ক্ষেত্র
voiceConfig object ( VoiceConfig )

একক-ভয়েস আউটপুট ক্ষেত্রে কনফিগারেশন।

multiSpeakerVoiceConfig object ( MultiSpeakerVoiceConfig )

ঐচ্ছিক। মাল্টি-স্পিকার সেটআপের জন্য কনফিগারেশন। এটি ভয়েসকনফিগ ক্ষেত্রের সাথে পারস্পরিক একচেটিয়া।

languageCode string

ঐচ্ছিক। ভাষা কোড (বিসিপি 47 ফর্ম্যাটে, যেমন "এন-ইউএস") স্পিচ সংশ্লেষণের জন্য।

বৈধ মানগুলি হ'ল: ডি-ডি, এন-অউ, এন-জিবি, এন-ইন, এন-ইউএস, ইএস-ইউএস, এফআর-ফ্র, হাই-ইন, পিটি-বিআর, এআর-এক্সএ, এস-এস, এফআর-সিএ, আইডি-আইডি, আইটি-ইট, জেএ-জেপি, টিআর-টিআর, ভি-ভিএন, বিএন-ইন, গু-ইন, কে-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-ইন, টিএ-আই-ইন, এনএল-এনএল, কো-কেআর, সিএমএন-সিএন, পিএল-পিএল, রু-রু এবং থ-থ।

JSON প্রতিনিধিত্ব
{
  "voiceConfig": {
    object (VoiceConfig)
  },
  "multiSpeakerVoiceConfig": {
    object (MultiSpeakerVoiceConfig)
  },
  "languageCode": string
}

ভয়েসকনফিগ

ভয়েস ব্যবহারের জন্য কনফিগারেশন।

ক্ষেত্র
voice_config Union type
স্পিকার ব্যবহারের জন্য কনফিগারেশন। voice_config নিম্নলিখিতগুলির মধ্যে একটি হতে পারে:
prebuiltVoiceConfig object ( PrebuiltVoiceConfig )

প্রিপবিল্ট ভয়েস ব্যবহারের জন্য কনফিগারেশন।

JSON প্রতিনিধিত্ব
{

  // voice_config
  "prebuiltVoiceConfig": {
    object (PrebuiltVoiceConfig)
  }
  // Union type
}

Prebuiltvoiceconfig

প্রিপবিল্ট স্পিকারের ব্যবহারের জন্য কনফিগারেশন।

ক্ষেত্র
voiceName string

ব্যবহারের জন্য প্রিসেট ভয়েসের নাম।

JSON প্রতিনিধিত্ব
{
  "voiceName": string
}

মাল্টিস্পেকারভোইসকনফিগ

মাল্টি-স্পিকার সেটআপের জন্য কনফিগারেশন।

ক্ষেত্র
speakerVoiceConfigs[] object ( SpeakerVoiceConfig )

প্রয়োজন। সমস্ত সক্ষম স্পিকার ভয়েস।

JSON প্রতিনিধিত্ব
{
  "speakerVoiceConfigs": [
    {
      object (SpeakerVoiceConfig)
    }
  ]
}

স্পিকারভোইসকনফিগ

মাল্টি স্পিকার সেটআপে একক স্পিকারের জন্য কনফিগারেশন।

ক্ষেত্র
speaker string

প্রয়োজন। ব্যবহার করার জন্য স্পিকারের নাম। প্রম্পটের মতো একই হওয়া উচিত।

voiceConfig object ( VoiceConfig )

প্রয়োজন। ভয়েস ব্যবহারের জন্য কনফিগারেশন।

JSON প্রতিনিধিত্ব
{
  "speaker": string,
  "voiceConfig": {
    object (VoiceConfig)
  }
}

চিন্তাভাবনা কনফিগ

চিন্তাভাবনা বৈশিষ্ট্যগুলির জন্য কনফিগারেশন।

ক্ষেত্র
boolean includeThoughts

প্রতিক্রিয়াতে চিন্তাভাবনা অন্তর্ভুক্ত করা উচিত কিনা তা নির্দেশ করে। যদি সত্য হয় তবে চিন্তাগুলি কেবল তখনই ফিরে আসে।

thinkingBudget integer

মডেলটি তৈরি করা উচিত এমন চিন্তার সংখ্যা।

JSON প্রতিনিধিত্ব
{
  "includeThoughts": boolean,
  "thinkingBudget": integer
}

মেডিয়ারসোলিউশন

ইনপুট মিডিয়া জন্য মিডিয়া রেজোলিউশন।

এনামস
MEDIA_RESOLUTION_UNSPECIFIED মিডিয়া রেজোলিউশন সেট করা হয়নি।
MEDIA_RESOLUTION_LOW মিডিয়া রেজোলিউশনটি কম (64 টোকেন) এ সেট করুন।
MEDIA_RESOLUTION_MEDIUM মিডিয়া রেজোলিউশন মিডিয়ামে সেট করুন (256 টোকেন)।
MEDIA_RESOLUTION_HIGH মিডিয়া রেজোলিউশন উচ্চে সেট করা (256 টোকেন সহ জুমযুক্ত রিফেমিং)।

ক্ষতিবিভাগ

একটি রেটিং বিভাগ।

এই বিভাগগুলি বিভিন্ন ধরণের ক্ষতির কভার করে যা বিকাশকারীরা সামঞ্জস্য করতে চায়।

এনামস
HARM_CATEGORY_UNSPECIFIED বিভাগ অনির্ধারিত।
HARM_CATEGORY_DEROGATORY পাম - পরিচয় এবং/অথবা সুরক্ষিত বৈশিষ্ট্য লক্ষ্য করে নেতিবাচক বা ক্ষতিকারক মন্তব্য।
HARM_CATEGORY_TOXICITY পাম - এমন সামগ্রী যা অভদ্র, অসম্মানজনক বা অশ্লীল।
HARM_CATEGORY_VIOLENCE পাম - কোনও ব্যক্তি বা গোষ্ঠীর বিরুদ্ধে সহিংসতা চিত্রিত করে এমন পরিস্থিতি বর্ণনা করে বা গোরের সাধারণ বিবরণ।
HARM_CATEGORY_SEXUAL পাম - যৌন ক্রিয়াকলাপ বা অন্যান্য অশ্লীল সামগ্রীর উল্লেখ রয়েছে।
HARM_CATEGORY_MEDICAL পাম - চেক করা চিকিত্সার পরামর্শ প্রচার করে।
HARM_CATEGORY_DANGEROUS পাম - বিপজ্জনক সামগ্রী যা ক্ষতিকারক ক্রিয়াকলাপগুলিকে প্রচার করে, সহায়তা করে বা উত্সাহ দেয়।
HARM_CATEGORY_HARASSMENT মিথুন - হয়রানির বিষয়বস্তু।
HARM_CATEGORY_HATE_SPEECH মিথুন - ঘৃণ্য বক্তৃতা এবং বিষয়বস্তু।
HARM_CATEGORY_SEXUALLY_EXPLICIT মিথুন - যৌন সুস্পষ্ট সামগ্রী।
HARM_CATEGORY_DANGEROUS_CONTENT মিথুন - বিপজ্জনক সামগ্রী।
HARM_CATEGORY_CIVIC_INTEGRITY

মিথুন - এমন সামগ্রী যা নাগরিক অখণ্ডতার ক্ষতি করতে ব্যবহৃত হতে পারে। অবমূল্যায়িত: পরিবর্তে সক্ষম করুন

মড্যালিটি টোকেনকাউন্ট

একক মড্যালিটির জন্য টোকেন গণনা তথ্য উপস্থাপন করে।

ক্ষেত্র
modality enum ( Modality )

এই টোকেন গণনার সাথে সম্পর্কিত মোডালিটি।

tokenCount integer

টোকেন সংখ্যা।

JSON প্রতিনিধিত্ব
{
  "modality": enum (Modality),
  "tokenCount": integer
}

মোডালিটি

বিষয়বস্তু অংশ মোডালিটি

এনামস
MODALITY_UNSPECIFIED অনির্ধারিত মোডালিটি।
TEXT সরল পাঠ্য।
IMAGE ছবি।
VIDEO ভিডিও।
AUDIO অডিও।
DOCUMENT ডকুমেন্ট, যেমন পিডিএফ।

নিরাপত্তা রেটিং

সামগ্রীর এক টুকরো জন্য সুরক্ষা রেটিং।

সুরক্ষা রেটিংটিতে ক্ষতির বিভাগ এবং এক টুকরো সামগ্রীর জন্য সেই বিভাগে ক্ষতির সম্ভাব্যতা স্তর রয়েছে। সামগ্রীগুলি বেশ কয়েকটি ক্ষতি বিভাগে সুরক্ষার জন্য শ্রেণিবদ্ধ করা হয় এবং ক্ষতির শ্রেণিবিন্যাসের সম্ভাবনা এখানে অন্তর্ভুক্ত করা হয়েছে।

ক্ষেত্র
category enum ( HarmCategory )

প্রয়োজন। এই রেটিংয়ের জন্য বিভাগ।

probability enum ( HarmProbability )

প্রয়োজন। এই সামগ্রীর জন্য ক্ষতির সম্ভাবনা।

blocked boolean

এই রেটিংয়ের কারণে এই বিষয়বস্তু কি অবরুদ্ধ ছিল?

JSON প্রতিনিধিত্ব
{
  "category": enum (HarmCategory),
  "probability": enum (HarmProbability),
  "blocked": boolean
}

ক্ষতিকারকতা

সামগ্রীর এক টুকরো ক্ষতিকারক সম্ভাবনা।

শ্রেণিবদ্ধকরণ সিস্টেমটি সামগ্রীটি অনিরাপদ হওয়ার সম্ভাবনা দেয়। এটি কোনও টুকরো সামগ্রীর ক্ষতির তীব্রতা নির্দেশ করে না।

এনামস
HARM_PROBABILITY_UNSPECIFIED সম্ভাবনা অনির্ধারিত।
NEGLIGIBLE সামগ্রীতে অনিরাপদ হওয়ার একটি নগণ্য সুযোগ রয়েছে।
LOW সামগ্রীতে অনিরাপদ হওয়ার সম্ভাবনা কম রয়েছে।
MEDIUM সামগ্রীতে অনিরাপদ হওয়ার মাঝারি সুযোগ রয়েছে।
HIGH সামগ্রীতে অনিরাপদ হওয়ার উচ্চ সম্ভাবনা রয়েছে।

নিরাপত্তা সেটিং

সুরক্ষা সেটিং, সুরক্ষা-ব্লকিং আচরণকে প্রভাবিত করে।

কোনও বিভাগের জন্য একটি সুরক্ষা সেটিং পাস করা অনুমোদিত সম্ভাব্যতা পরিবর্তন করে যে সামগ্রী অবরুদ্ধ রয়েছে।

ক্ষেত্র
category enum ( HarmCategory )

প্রয়োজন। এই সেটিংয়ের জন্য বিভাগ।

threshold enum ( HarmBlockThreshold )

প্রয়োজন। সম্ভাব্যতা প্রান্তিকতা নিয়ন্ত্রণ করে যেখানে ক্ষতি অবরুদ্ধ থাকে।

JSON প্রতিনিধিত্ব
{
  "category": enum (HarmCategory),
  "threshold": enum (HarmBlockThreshold)
}

হারব্লোকথ্রোল্ড

একটি নির্দিষ্ট ক্ষতির সম্ভাবনা এট এবং এর বাইরেও ব্লক করুন।

এনামস
HARM_BLOCK_THRESHOLD_UNSPECIFIED থ্রেশহোল্ড অনির্ধারিত।
BLOCK_LOW_AND_ABOVE নগন্যতার সাথে সামগ্রীর অনুমতি দেওয়া হবে।
BLOCK_MEDIUM_AND_ABOVE নগণ্য এবং কম সহ সামগ্রীর অনুমতি দেওয়া হবে।
BLOCK_ONLY_HIGH নগণ্য, নিম্ন এবং মাঝারি সহ সামগ্রীর অনুমতি দেওয়া হবে।
BLOCK_NONE সমস্ত সামগ্রী অনুমোদিত হবে।
OFF সুরক্ষা ফিল্টার বন্ধ করুন।