জেমিনি এবং অন্যান্য জেনারেটিভ এআই মডেলগুলি টোকেন নামক একটি গ্রানুলারিটিতে ইনপুট এবং আউটপুট প্রক্রিয়া করে।
জেমিনি মডেলের জন্য, একটি টোকেন প্রায় ৪টি অক্ষরের সমান। ১০০টি টোকেন প্রায় ৬০-৮০টি ইংরেজি শব্দের সমান।
টোকেন সম্পর্কে
টোকেনগুলি z মতো একক অক্ষর অথবা cat মতো সম্পূর্ণ শব্দ হতে পারে। দীর্ঘ শব্দগুলিকে কয়েকটি টোকেনে বিভক্ত করা হয়। মডেল দ্বারা ব্যবহৃত সমস্ত টোকেনের সেটকে শব্দভাণ্ডার বলা হয় এবং পাঠ্যকে টোকেনে বিভক্ত করার প্রক্রিয়াটিকে টোকেনাইজেশন বলা হয়।
যখন বিলিং সক্ষম করা থাকে, তখন জেমিনি এপিআইতে কল করার খরচ আংশিকভাবে ইনপুট এবং আউটপুট টোকেনের সংখ্যা দ্বারা নির্ধারিত হয়, তাই টোকেন কীভাবে গণনা করতে হয় তা জানা সহায়ক হতে পারে।
আপনি আমাদের Colab-এ টোকেন গণনা করার চেষ্টা করতে পারেন।
| | একটি Colab নোটবুক ব্যবহার করে দেখুন | GitHub-এ নোটবুক দেখুন |
টোকেন গণনা করুন
জেমিনি এপিআই থেকে সমস্ত ইনপুট এবং আউটপুট টোকেনাইজড, যার মধ্যে টেক্সট, ইমেজ ফাইল এবং অন্যান্য নন-টেক্সট মোডালিটি অন্তর্ভুক্ত।
আপনি নিম্নলিখিত উপায়ে টোকেন গণনা করতে পারেন:
অনুরোধের ইনপুট দিয়ে
count_tokensকল করুন।
এটি শুধুমাত্র ইনপুটে থাকা টোকেনের মোট সংখ্যা ফেরত দেয়। আপনার অনুরোধের আকার পরীক্ষা করার জন্য মডেলে ইনপুট পাঠানোর আগে আপনি এই কলটি করতে পারেন।generate_contentকল করার পরresponseঅবজেক্টেusage_metadataঅ্যাট্রিবিউট ব্যবহার করুন।
এটি ইনপুট এবং আউটপুট উভয় ক্ষেত্রেই মোট টোকেনের সংখ্যা প্রদান করে:total_token_count।
এটি ইনপুট এবং আউটপুটের টোকেন গণনা আলাদাভাবে ফেরত দেয়:prompt_token_count(ইনপুট টোকেন) এবংcandidates_token_count(আউটপুট টোকেন)।যদি আপনি একটি চিন্তা মডেল ব্যবহার করেন, তাহলে চিন্তা প্রক্রিয়ার সময় ব্যবহৃত টোকেন
thoughts_token_countএ ফেরত পাঠানো হবে। এবং যদি আপনি Context ক্যাশিং ব্যবহার করেন, তাহলে ক্যাশ করা টোকেন গণনাcached_content_token_countএ থাকবে।
টেক্সট টোকেন গণনা করুন
যদি আপনি count_tokens শুধুমাত্র টেক্সট ইনপুট দিয়ে কল করেন, তাহলে এটি শুধুমাত্র ইনপুটে থাকা টেক্সটের টোকেন কাউন্ট ( total_tokens ) ফেরত দেয়। আপনার অনুরোধের আকার পরীক্ষা করার জন্য generate_content কল করার আগে আপনি এই কলটি করতে পারেন।
আরেকটি বিকল্প হল generate_content কল করা এবং তারপর নিম্নলিখিতগুলি পেতে response বস্তুর উপর usage_metadata অ্যাট্রিবিউট ব্যবহার করা:
- ইনপুট (
prompt_token_count), ক্যাশেড কন্টেন্ট (cached_content_token_count) এবং আউটপুট (candidates_token_count) এর পৃথক টোকেন গণনা করা হয়। - চিন্তা প্রক্রিয়ার জন্য টোকেন গণনা (
thoughts_token_count) ইনপুট এবং আউটপুট উভয় ক্ষেত্রেই মোট টোকেনের সংখ্যা (
total_token_count)
পাইথন
from google import genai
client = genai.Client()
prompt = "The quick brown fox jumps over the lazy dog."
total_tokens = client.models.count_tokens(
model="gemini-3-flash-preview", contents=prompt
)
print("total_tokens: ", total_tokens)
response = client.models.generate_content(
model="gemini-3-flash-preview", contents=prompt
)
print(response.usage_metadata)
জাভাস্ক্রিপ্ট
import { GoogleGenAI } from '@google/genai';
const ai = new GoogleGenAI({});
const prompt = "The quick brown fox jumps over the lazy dog.";
async function main() {
const countTokensResponse = await ai.models.countTokens({
model: "gemini-3-flash-preview",
contents: prompt,
});
console.log(countTokensResponse.totalTokens);
const generateResponse = await ai.models.generateContent({
model: "gemini-3-flash-preview",
contents: prompt,
});
console.log(generateResponse.usageMetadata);
}
await main();
যাও
ctx := context.Background()
client, err := genai.NewClient(ctx, nil)
// Convert prompt to a slice of *genai.Content using the helper.
contents := []*genai.Content{
genai.NewContentFromText(prompt, genai.RoleUser),
}
countResp, err := client.Models.CountTokens(ctx, "gemini-3-flash-preview", contents, nil)
if err != nil {
return err
}
fmt.Println("total_tokens:", countResp.TotalTokens)
response, err := client.Models.GenerateContent(ctx, "gemini-3-flash-preview", contents, nil)
if err != nil {
log.Fatal(err)
}
usageMetadata, err := json.MarshalIndent(response.UsageMetadata, "", " ")
if err != nil {
log.Fatal(err)
}
fmt.Println(string(usageMetadata))
```
মাল্টি-টার্ন (চ্যাট) টোকেন গণনা করুন
যদি আপনি চ্যাট ইতিহাসের সাথে count_tokens কল করেন, তাহলে এটি চ্যাটের প্রতিটি ভূমিকা থেকে টেক্সটের মোট টোকেন গণনা ( total_tokens ) ফেরত দেয়।
আরেকটি বিকল্প হল send_message কল করা এবং তারপর নিম্নলিখিতগুলি পেতে response বস্তুর উপর usage_metadata অ্যাট্রিবিউট ব্যবহার করা:
- ইনপুট (
prompt_token_count), ক্যাশেড কন্টেন্ট (cached_content_token_count) এবং আউটপুট (candidates_token_count) এর পৃথক টোকেন গণনা করা হয়। - চিন্তা প্রক্রিয়ার জন্য টোকেন গণনা (
thoughts_token_count) - ইনপুট এবং আউটপুট উভয় ক্ষেত্রেই মোট টোকেনের সংখ্যা (
total_token_count)
আপনার পরবর্তী কথোপকথনের পালা কত বড় হবে তা বোঝার জন্য, count_tokens কল করার সময় আপনাকে এটি ইতিহাসে যুক্ত করতে হবে।
পাইথন
from google import genai
from google.genai import types
client = genai.Client()
chat = client.chats.create(
model="gemini-3-flash-preview",
history=[
types.Content(
role="user", parts=[types.Part(text="Hi my name is Bob")]
),
types.Content(role="model", parts=[types.Part(text="Hi Bob!")]),
],
)
print(
client.models.count_tokens(
model="gemini-3-flash-preview", contents=chat.get_history()
)
)
response = chat.send_message(
message="In one sentence, explain how a computer works to a young child."
)
print(response.usage_metadata)
extra = types.UserContent(
parts=[
types.Part(
text="What is the meaning of life?",
)
]
)
history = [*chat.get_history(), extra]
print(client.models.count_tokens(model="gemini-3-flash-preview", contents=history))
জাভাস্ক্রিপ্ট
import { GoogleGenAI } from '@google/genai';
const ai = new GoogleGenAI({});
async function main() {
const history = [
{ role: "user", parts: [{ text: "Hi my name is Bob" }] },
{ role: "model", parts: [{ text: "Hi Bob!" }] },
];
const chat = ai.chats.create({
model: "gemini-3-flash-preview",
history: history,
});
const countTokensResponse = await ai.models.countTokens({
model: "gemini-3-flash-preview",
contents: chat.getHistory(),
});
console.log(countTokensResponse.totalTokens);
const chatResponse = await chat.sendMessage({
message: "In one sentence, explain how a computer works to a young child.",
});
console.log(chatResponse.usageMetadata);
const extraMessage = {
role: "user",
parts: [{ text: "What is the meaning of life?" }],
};
const combinedHistory = [...chat.getHistory(), extraMessage];
const combinedCountTokensResponse = await ai.models.countTokens({
model: "gemini-3-flash-preview",
contents: combinedHistory,
});
console.log(
"Combined history token count:",
combinedCountTokensResponse.totalTokens,
);
}
await main();
যাও
ctx := context.Background()
client, err := genai.NewClient(ctx, nil)
history := []*genai.Content{
{Role: genai.RoleUser, Parts: []*genai.Part({Text: "Hi my name is Bob"})},
{Role: genai.RoleModel, Parts: []*genai.Part({Text: "Hi Bob!"})},
}
chat, err := client.Chats.Create(ctx, "gemini-3-flash-preview", nil, history)
if err != nil {
log.Fatal(err)
}
firstTokenResp, err := client.Models.CountTokens(ctx, "gemini-3-flash-preview", chat.History(false), nil)
if err != nil {
log.Fatal(err)
}
fmt.Println(firstTokenResp.TotalTokens)
resp, err := chat.SendMessage(ctx, genai.NewPartFromText("In one sentence, explain how a computer works to a young child."))
if err != nil {
log.Fatal(err)
}
fmt.Printf("%#v\n", resp.UsageMetadata)
extra := genai.NewContentFromText("What is the meaning of life?", genai.RoleUser)
hist := chat.History(false)
hist = append(hist, extra)
secondTokenResp, err := client.Models.CountTokens(ctx, "gemini-3-flash-preview", hist, nil)
if err != nil {
log.Fatal(err)
}
fmt.Println(secondTokenResp.TotalTokens)
মাল্টিমোডাল টোকেন গণনা করুন
জেমিনি এপিআই-তে সমস্ত ইনপুট টোকেনাইজ করা হয়, যার মধ্যে টেক্সট, ইমেজ ফাইল এবং অন্যান্য নন-টেক্সট মোডালিটি অন্তর্ভুক্ত। জেমিনি এপিআই দ্বারা প্রক্রিয়াকরণের সময় মাল্টিমোডাল ইনপুট টোকেনাইজেশন সম্পর্কে নিম্নলিখিত উচ্চ-স্তরের মূল বিষয়গুলি লক্ষ্য করুন:
<=৩৮৪ পিক্সেল উভয় মাত্রার ছবির ইনপুটগুলিকে ২৫৮ টোকেন হিসেবে গণনা করা হয়। এক বা উভয় মাত্রার বৃহত্তর ছবিগুলিকে প্রয়োজন অনুসারে ক্রপ করা হয় এবং ৭৬৮x৭৬৮ পিক্সেলের টাইলস তৈরি করা হয়, প্রতিটিকে ২৫৮ টোকেন হিসেবে গণনা করা হয়।
ভিডিও এবং অডিও ফাইলগুলি নিম্নলিখিত নির্দিষ্ট হারে টোকেনে রূপান্তরিত হয়: প্রতি সেকেন্ডে 263 টোকেন হারে ভিডিও এবং প্রতি সেকেন্ডে 32 টোকেন হারে অডিও।
মিডিয়া রেজোলিউশন
জেমিনি ৩ প্রো এবং ৩ ফ্ল্যাশ প্রিভিউ মডেলগুলি media_resolution প্যারামিটারের সাহায্যে মাল্টিমোডাল ভিশন প্রসেসিংয়ের উপর গ্রানুলার নিয়ন্ত্রণ প্রবর্তন করে। media_resolution প্যারামিটার প্রতি ইনপুট চিত্র বা ভিডিও ফ্রেমে বরাদ্দকৃত টোকেনের সর্বাধিক সংখ্যা নির্ধারণ করে। উচ্চ রেজোলিউশন মডেলের সূক্ষ্ম পাঠ্য পড়ার বা ছোট বিবরণ সনাক্ত করার ক্ষমতা উন্নত করে, তবে টোকেনের ব্যবহার এবং বিলম্বিতা বৃদ্ধি করে।
প্যারামিটারটি এবং এটি কীভাবে টোকেন গণনাকে প্রভাবিত করতে পারে সে সম্পর্কে আরও তথ্যের জন্য, মিডিয়া রেজোলিউশন নির্দেশিকাটি দেখুন।
ছবির ফাইল
যদি আপনি টেক্সট-এবং-ইমেজ ইনপুট দিয়ে count_tokens কল করেন, তাহলে এটি শুধুমাত্র ইনপুটে থাকা টেক্সট এবং ইমেজের মিলিত টোকেন গণনা ফেরত দেয় ( total_tokens )। আপনার অনুরোধের আকার পরীক্ষা করার জন্য generate_content কল করার আগে আপনি এই কলটি করতে পারেন। আপনি ঐচ্ছিকভাবে টেক্সট এবং ফাইলে আলাদাভাবে count_tokens কল করতে পারেন।
আরেকটি বিকল্প হল generate_content কল করা এবং তারপর নিম্নলিখিতগুলি পেতে response বস্তুর উপর usage_metadata অ্যাট্রিবিউট ব্যবহার করা:
- ইনপুট (
prompt_token_count), ক্যাশেড কন্টেন্ট (cached_content_token_count) এবং আউটপুট (candidates_token_count) এর পৃথক টোকেন গণনা করা হয়। - চিন্তা প্রক্রিয়ার জন্য টোকেন গণনা (
thoughts_token_count) - ইনপুট এবং আউটপুট উভয় ক্ষেত্রেই মোট টোকেনের সংখ্যা (
total_token_count)
ফাইল API থেকে আপলোড করা ছবি ব্যবহার করে এমন উদাহরণ:
পাইথন
from google import genai
client = genai.Client()
prompt = "Tell me about this image"
your_image_file = client.files.upload(file=media / "organ.jpg")
print(
client.models.count_tokens(
model="gemini-3-flash-preview", contents=[prompt, your_image_file]
)
)
response = client.models.generate_content(
model="gemini-3-flash-preview", contents=[prompt, your_image_file]
)
print(response.usage_metadata)
জাভাস্ক্রিপ্ট
import { GoogleGenAI } from '@google/genai';
const ai = new GoogleGenAI({});
const prompt = "Tell me about this image";
async function main() {
const organ = await ai.files.upload({
file: path.join(media, "organ.jpg"),
config: { mimeType: "image/jpeg" },
});
const countTokensResponse = await ai.models.countTokens({
model: "gemini-3-flash-preview",
contents: createUserContent([
prompt,
createPartFromUri(organ.uri, organ.mimeType),
]),
});
console.log(countTokensResponse.totalTokens);
const generateResponse = await ai.models.generateContent({
model: "gemini-3-flash-preview",
contents: createUserContent([
prompt,
createPartFromUri(organ.uri, organ.mimeType),
]),
});
console.log(generateResponse.usageMetadata);
}
await main();
যাও
ctx := context.Background()
client, err := genai.NewClient(ctx, nil)
file, err := client.Files.UploadFromPath(
ctx,
filepath.Join(getMedia(), "organ.jpg"),
&genai.UploadFileConfig{
MIMEType : "image/jpeg",
},
)
if err != nil {
log.Fatal(err)
}
parts := []*genai.Part{
genai.NewPartFromText("Tell me about this image"),
genai.NewPartFromURI(file.URI, file.MIMEType),
}
contents := []*genai.Content{
genai.NewContentFromParts(parts, genai.RoleUser),
}
tokenResp, err := client.Models.CountTokens(ctx, "gemini-3-flash-preview", contents, nil)
if err != nil {
log.Fatal(err)
}
fmt.Println("Multimodal image token count:", tokenResp.TotalTokens)
response, err := client.Models.GenerateContent(ctx, "gemini-3-flash-preview", contents, nil)
if err != nil {
log.Fatal(err)
}
usageMetadata, err := json.MarshalIndent(response.UsageMetadata, "", " ")
if err != nil {
log.Fatal(err)
}
fmt.Println(string(usageMetadata))
ইনলাইন ডেটা হিসেবে ছবিটি প্রদানকারী উদাহরণ:
পাইথন
from google import genai
import PIL.Image
client = genai.Client()
prompt = "Tell me about this image"
your_image_file = PIL.Image.open(media / "organ.jpg")
print(
client.models.count_tokens(
model="gemini-3-flash-preview", contents=[prompt, your_image_file]
)
)
response = client.models.generate_content(
model="gemini-3-flash-preview", contents=[prompt, your_image_file]
)
print(response.usage_metadata)
জাভাস্ক্রিপ্ট
import { GoogleGenAI } from '@google/genai';
const ai = new GoogleGenAI({});
const prompt = "Tell me about this image";
const imageBuffer = fs.readFileSync(path.join(media, "organ.jpg"));
const imageBase64 = imageBuffer.toString("base64");
const contents = createUserContent([
prompt,
createPartFromBase64(imageBase64, "image/jpeg"),
]);
async function main() {
const countTokensResponse = await ai.models.countTokens({
model: "gemini-3-flash-preview",
contents: contents,
});
console.log(countTokensResponse.totalTokens);
const generateResponse = await ai.models.generateContent({
model: "gemini-3-flash-preview",
contents: contents,
});
console.log(generateResponse.usageMetadata);
}
await main();
যাও
ctx := context.Background()
client, err := genai.NewClient(ctx, nil)
imageBytes, err := os.ReadFile("organ.jpg")
if err != nil {
log.Fatalf("Failed to read image file: %v", err)
}
parts := []*genai.Part{
genai.NewPartFromText("Tell me about this image"),
{
InlineData: &genai.Blob{
MIMEType: "image/jpeg",
Data: imageBytes,
},
},
}
contents := []*genai.Content{
genai.NewContentFromParts(parts, genai.RoleUser),
}
tokenResp, err := client.Models.CountTokens(ctx, "gemini-3-flash-preview", contents, nil)
if err != nil {
log.Fatal(err)
}
fmt.Println("Multimodal image token count:", tokenResp.TotalTokens)
response, err := client.Models.GenerateContent(ctx, "gemini-3-flash-preview", contents, nil)
if err != nil {
log.Fatal(err)
}
usageMetadata, err := json.MarshalIndent(response.UsageMetadata, "", " ")
if err != nil {
log.Fatal(err)
}
fmt.Println(string(usageMetadata))
ভিডিও বা অডিও ফাইল
অডিও এবং ভিডিও প্রতিটিকে নিম্নলিখিত নির্দিষ্ট হারে টোকেনে রূপান্তর করা হয়:
- ভিডিও: প্রতি সেকেন্ডে ২৬৩ টোকেন
- অডিও: প্রতি সেকেন্ডে ৩২ টোকেন
যদি আপনি টেক্সট-এবং-ভিডিও/অডিও ইনপুট দিয়ে count_tokens কল করেন, তাহলে এটি শুধুমাত্র ইনপুটে থাকা টেক্সট এবং ভিডিও/অডিও ফাইলের সম্মিলিত টোকেন গণনা ফেরত দেয় ( total_tokens )। আপনার অনুরোধের আকার পরীক্ষা করার জন্য আপনি generate_content কল করার আগে এই কলটি করতে পারেন। আপনি ঐচ্ছিকভাবে টেক্সট এবং ফাইলে আলাদাভাবে count_tokens কল করতে পারেন।
আরেকটি বিকল্প হল generate_content কল করা এবং তারপর নিম্নলিখিতগুলি পেতে response বস্তুর উপর usage_metadata অ্যাট্রিবিউট ব্যবহার করা:
- ইনপুট (
prompt_token_count), ক্যাশেড কন্টেন্ট (cached_content_token_count) এবং আউটপুট (candidates_token_count) এর পৃথক টোকেন গণনা করা হয়। - চিন্তা প্রক্রিয়ার জন্য টোকেন গণনা (
thoughts_token_count) ইনপুট এবং আউটপুট উভয় ক্ষেত্রেই মোট টোকেনের সংখ্যা (
total_token_count)।
পাইথন
from google import genai
import time
client = genai.Client()
prompt = "Tell me about this video"
your_file = client.files.upload(file=media / "Big_Buck_Bunny.mp4")
while not your_file.state or your_file.state.name != "ACTIVE":
print("Processing video...")
print("File state:", your_file.state)
time.sleep(5)
your_file = client.files.get(name=your_file.name)
print(
client.models.count_tokens(
model="gemini-3-flash-preview", contents=[prompt, your_file]
)
)
response = client.models.generate_content(
model="gemini-3-flash-preview", contents=[prompt, your_file]
)
print(response.usage_metadata)
জাভাস্ক্রিপ্ট
import { GoogleGenAI } from '@google/genai';
const ai = new GoogleGenAI({});
const prompt = "Tell me about this video";
async function main() {
let videoFile = await ai.files.upload({
file: path.join(media, "Big_Buck_Bunny.mp4"),
config: { mimeType: "video/mp4" },
});
while (!videoFile.state || videoFile.state.toString() !== "ACTIVE") {
console.log("Processing video...");
console.log("File state: ", videoFile.state);
await sleep(5000);
videoFile = await ai.files.get({ name: videoFile.name });
}
const countTokensResponse = await ai.models.countTokens({
model: "gemini-3-flash-preview",
contents: createUserContent([
prompt,
createPartFromUri(videoFile.uri, videoFile.mimeType),
]),
});
console.log(countTokensResponse.totalTokens);
const generateResponse = await ai.models.generateContent({
model: "gemini-3-flash-preview",
contents: createUserContent([
prompt,
createPartFromUri(videoFile.uri, videoFile.mimeType),
]),
});
console.log(generateResponse.usageMetadata);
}
await main();
যাও
ctx := context.Background()
client, err := genai.NewClient(ctx, nil)
file, err := client.Files.UploadFromPath(
ctx,
filepath.Join(getMedia(), "Big_Buck_Bunny.mp4"),
&genai.UploadFileConfig{
MIMEType : "video/mp4",
},
)
if err != nil {
log.Fatal(err)
}
for file.State == genai.FileStateUnspecified || file.State != genai.FileStateActive {
fmt.Println("Processing video...")
fmt.Println("File state:", file.State)
time.Sleep(5 * time.Second)
file, err = client.Files.Get(ctx, file.Name, nil)
if err != nil {
log.Fatal(err)
}
}
parts := []*genai.Part{
genai.NewPartFromText("Tell me about this video"),
genai.NewPartFromURI(file.URI, file.MIMEType),
}
contents := []*genai.Content{
genai.NewContentFromParts(parts, genai.RoleUser),
}
tokenResp, err := client.Models.CountTokens(ctx, "gemini-3-flash-preview", contents, nil)
if err != nil {
log.Fatal(err)
}
fmt.Println("Multimodal video/audio token count:", tokenResp.TotalTokens)
response, err := client.Models.GenerateContent(ctx, "gemini-3-flash-preview", contents, nil)
if err != nil {
log.Fatal(err)
}
usageMetadata, err := json.MarshalIndent(response.UsageMetadata, "", " ")
if err != nil {
log.Fatal(err)
}
fmt.Println(string(usageMetadata))
প্রসঙ্গ উইন্ডো
জেমিনি এপিআই-এর মাধ্যমে উপলব্ধ মডেলগুলিতে কনটেক্সট উইন্ডো থাকে যা টোকেনে পরিমাপ করা হয়। কনটেক্সট উইন্ডোটি নির্ধারণ করে যে আপনি কতটা ইনপুট প্রদান করতে পারবেন এবং মডেলটি কতটা আউটপুট তৈরি করতে পারবে। আপনি models.get endpoint-এ কল করে অথবা models ডকুমেন্টেশন দেখে কনটেক্সট উইন্ডোর আকার নির্ধারণ করতে পারেন।
পাইথন
from google import genai
client = genai.Client()
model_info = client.models.get(model="gemini-3-flash-preview")
print(f"{model_info.input_token_limit=}")
print(f"{model_info.output_token_limit=}")
জাভাস্ক্রিপ্ট
import { GoogleGenAI } from '@google/genai';
const ai = new GoogleGenAI({});
async function main() {
const modelInfo = await ai.models.get({model: 'gemini-3-flash-preview'});
console.log(modelInfo.inputTokenLimit);
console.log(modelInfo.outputTokenLimit);
}
await main();
যাও
ctx := context.Background()
client, err := genai.NewClient(ctx, nil)
if err != nil {
log.Fatal(err)
}
modelInfo, err := client.ModelInfo(ctx, "models/gemini-3-flash-preview")
if err != nil {
log.Fatal(err)
}
fmt.Println("input token limit:", modelInfo.InputTokenLimit)
fmt.Println("output token limit:", modelInfo.OutputTokenLimit)
একটি Colab নোটবুক ব্যবহার করে দেখুন
GitHub-এ নোটবুক দেখুন