নিরাপত্তা সেটিংস

Gemini API নিরাপত্তা সেটিংস প্রদান করে যা আপনি প্রোটোটাইপিং পর্যায়ে সামঞ্জস্য করতে পারেন তা নির্ধারণ করতে আপনার অ্যাপ্লিকেশনটির কম বা কম সীমাবদ্ধ সুরক্ষা কনফিগারেশন প্রয়োজন কিনা। নির্দিষ্ট ধরণের সামগ্রীকে সীমাবদ্ধ বা অনুমতি দিতে আপনি চারটি ফিল্টার বিভাগে এই সেটিংস সামঞ্জস্য করতে পারেন।

Gemini API কীভাবে নিরাপত্তা সেটিংস এবং ফিল্টারিং পরিচালনা করে এবং কীভাবে আপনি আপনার অ্যাপ্লিকেশনের নিরাপত্তা সেটিংস পরিবর্তন করতে পারেন তা এই নির্দেশিকাটি কভার করে।

নিরাপত্তা ফিল্টার

Gemini API এর সামঞ্জস্যযোগ্য নিরাপত্তা ফিল্টারগুলি নিম্নলিখিত বিভাগগুলিকে কভার করে:

শ্রেণী বর্ণনা
হয়রানি পরিচয় এবং/অথবা সুরক্ষিত বৈশিষ্ট্যকে লক্ষ্য করে নেতিবাচক বা ক্ষতিকর মন্তব্য।
ঘৃণাবাচক কথা অভদ্র, অসম্মানজনক বা অপবিত্র বিষয়বস্তু।
যৌনতাপূর্ণ যৌন ক্রিয়াকলাপ বা অন্যান্য অশ্লীল বিষয়বস্তুর উল্লেখ রয়েছে৷
বিপজ্জনক প্রচার করে, সুবিধা দেয় বা ক্ষতিকারক কাজকে উৎসাহিত করে।

আপনার ব্যবহারের ক্ষেত্রে যা উপযুক্ত তা সামঞ্জস্য করতে আপনি এই ফিল্টারগুলি ব্যবহার করতে পারেন৷ উদাহরণস্বরূপ, আপনি যদি ভিডিও গেমের সংলাপ তৈরি করছেন, তাহলে গেমের প্রকৃতির কারণে বিপজ্জনক হিসাবে রেট দেওয়া আরও সামগ্রীকে অনুমতি দেওয়া আপনি গ্রহণযোগ্য বলে মনে করতে পারেন।

সামঞ্জস্যযোগ্য নিরাপত্তা ফিল্টার ছাড়াও, Gemini API-এর মূল ক্ষতির বিরুদ্ধে অন্তর্নির্মিত সুরক্ষা রয়েছে, যেমন বিষয়বস্তু যা শিশুদের নিরাপত্তাকে বিপন্ন করে। এই ধরনের ক্ষতি সবসময় অবরুদ্ধ এবং সমন্বয় করা যাবে না.

বিষয়বস্তু নিরাপত্তা ফিল্টারিং স্তর

Gemini API বিষয়বস্তুর অনিরাপদ হওয়ার সম্ভাবনার স্তরটিকে HIGH , MEDIUM , LOW , বা NEGLIGIBLE হিসাবে শ্রেণীবদ্ধ করে৷

Gemini API বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনার উপর ভিত্তি করে বিষয়বস্তু ব্লক করে এবং তীব্রতা নয়। এটি বিবেচনা করা গুরুত্বপূর্ণ কারণ কিছু সামগ্রীর অনিরাপদ হওয়ার সম্ভাবনা কম থাকতে পারে যদিও ক্ষতির তীব্রতা এখনও বেশি হতে পারে। উদাহরণস্বরূপ, বাক্যগুলির তুলনা করা:

  1. রোবট আমাকে ঘুষি মারল।
  2. রোবট আমাকে ছিঁড়ে ফেলেছে।

প্রথম বাক্যটি অনিরাপদ হওয়ার উচ্চ সম্ভাবনার কারণ হতে পারে, তবে আপনি দ্বিতীয় বাক্যটিকে সহিংসতার পরিপ্রেক্ষিতে উচ্চতর তীব্রতা বলে বিবেচনা করতে পারেন। এই প্রদত্ত, এটি গুরুত্বপূর্ণ যে আপনি সতর্কতার সাথে পরীক্ষা করুন এবং বিবেচনা করুন যে আপনার মূল ব্যবহারের ক্ষেত্রে শেষ ব্যবহারকারীদের ক্ষতি কমিয়ে সমর্থন করার জন্য ব্লক করার উপযুক্ত স্তরটি কী প্রয়োজন।

অনুরোধ প্রতি নিরাপত্তা ফিল্টারিং

আপনি API-তে করা প্রতিটি অনুরোধের জন্য নিরাপত্তা সেটিংস সামঞ্জস্য করতে পারেন। আপনি যখন একটি অনুরোধ করেন, তখন বিষয়বস্তু বিশ্লেষণ করা হয় এবং একটি নিরাপত্তা রেটিং দেওয়া হয়। নিরাপত্তা রেটিং বিভাগ এবং ক্ষতির শ্রেণীবিভাগের সম্ভাবনা অন্তর্ভুক্ত। উদাহরণস্বরূপ, যদি হয়রানি বিভাগের উচ্চ সম্ভাবনা থাকার কারণে বিষয়বস্তুটি অবরুদ্ধ করা হয়, তাহলে প্রত্যাবর্তিত সুরক্ষা রেটিংটি HARASSMENT সমান বিভাগ এবং ক্ষতির সম্ভাবনা HIGH সেট করা হবে।

ডিফল্টরূপে, নিরাপত্তা সেটিংস কোনো ফিল্টার জুড়ে অনিরাপদ হওয়ার মাঝারি বা উচ্চ সম্ভাবনা সহ সামগ্রী (প্রম্পট সহ) ব্লক করে। এই বেসলাইন সুরক্ষাটি বেশিরভাগ ব্যবহারের ক্ষেত্রে কাজ করার জন্য ডিজাইন করা হয়েছে, তাই আপনার অ্যাপ্লিকেশনের জন্য ধারাবাহিকভাবে প্রয়োজন হলেই আপনার নিরাপত্তা সেটিংস সামঞ্জস্য করা উচিত।

নিম্নলিখিত সারণীটি ব্লক সেটিংস বর্ণনা করে যা আপনি প্রতিটি বিভাগের জন্য সামঞ্জস্য করতে পারেন। উদাহরণস্বরূপ, আপনি যদি ঘৃণাত্মক বক্তৃতা বিভাগের জন্য ব্লক সেটিংটি ব্লক কয়েকটিতে সেট করেন, তাহলে ঘৃণাত্মক বক্তব্যের বিষয়বস্তু হওয়ার উচ্চ সম্ভাবনা রয়েছে এমন সমস্ত কিছু ব্লক করা হবে৷ কিন্তু একটি কম সম্ভাবনা সঙ্গে কিছু অনুমোদিত.

থ্রেশহোল্ড (গুগল এআই স্টুডিও) থ্রেশহোল্ড (API) বর্ণনা
কোনটিই ব্লক করবেন না BLOCK_NONE অনিরাপদ সামগ্রীর সম্ভাবনা নির্বিশেষে সর্বদা দেখান
কয়েকটি ব্লক করুন BLOCK_ONLY_HIGH অনিরাপদ বিষয়বস্তুর উচ্চ সম্ভাবনা থাকলে ব্লক করুন
কিছু ব্লক BLOCK_MEDIUM_AND_ABOVE অনিরাপদ সামগ্রীর মাঝারি বা উচ্চ সম্ভাবনা থাকলে ব্লক করুন
বেশিরভাগ ব্লক করুন BLOCK_LOW_AND_ABOVE অনিরাপদ সামগ্রীর কম, মাঝারি বা উচ্চ সম্ভাবনা থাকলে ব্লক করুন
N/A HARM_BLOCK_THRESHOLD_UNSPECIFIED থ্রেশহোল্ড অনির্দিষ্ট, ডিফল্ট থ্রেশহোল্ড ব্যবহার করে ব্লক করুন

যদি সেট না করা হয়, ডিফল্ট ব্লক সেটিং হল সমস্ত বিভাগের জন্য কিছু ব্লক করুন

আপনি জেনারেটিভ পরিষেবাতে আপনার করা প্রতিটি অনুরোধের জন্য এই সেটিংস সেট করতে পারেন। বিস্তারিত জানার জন্য HarmBlockThreshold API রেফারেন্স দেখুন।

নিরাপত্তা প্রতিক্রিয়া

generateContent একটি GenerateContentResponse প্রদান করে যার মধ্যে নিরাপত্তা ফিডব্যাক রয়েছে।

প্রম্পট ফিডব্যাক promptFeedback অন্তর্ভুক্ত করা হয়েছে। যদি promptFeedback.blockReason সেট করা থাকে, তাহলে প্রম্পটের বিষয়বস্তু ব্লক করা হয়েছে।

প্রতিক্রিয়া প্রার্থীর প্রতিক্রিয়া finishReason এবং safetyRatings -এ অন্তর্ভুক্ত করা হয়েছে। যদি প্রতিক্রিয়া বিষয়বস্তু অবরুদ্ধ করা হয় এবং finishReason SAFETY ছিল, আপনি আরও বিশদ বিবরণের জন্য safetyRatings পরীক্ষা করতে পারেন। ব্লক করা বিষয়বস্তু ফেরত দেওয়া হয় না.

নিরাপত্তা সেটিংস সামঞ্জস্য করুন

এই বিভাগে Google AI স্টুডিও এবং আপনার কোড উভয়ের নিরাপত্তা সেটিংস কীভাবে সামঞ্জস্য করা যায় তা কভার করে।

গুগল এআই স্টুডিও

আপনি Google AI স্টুডিওতে নিরাপত্তা সেটিংস সামঞ্জস্য করতে পারেন, কিন্তু আপনি সেগুলি বন্ধ করতে পারবেন না।

রান নিরাপত্তা সেটিংস মোডাল খুলতে রান সেটিংস প্যানেলে নিরাপত্তা সেটিংস সম্পাদনা করুন ক্লিক করুন। মোডেলে, আপনি সুরক্ষা বিভাগের জন্য সামগ্রী ফিল্টারিং স্তর সামঞ্জস্য করতে স্লাইডারগুলি ব্যবহার করতে পারেন:

আপনি যখন একটি অনুরোধ পাঠান (উদাহরণস্বরূপ, মডেলটিকে একটি প্রশ্ন জিজ্ঞাসা করে), অনুরোধের বিষয়বস্তু ব্লক করা থাকলে একটি নো বিষয়বস্তু বার্তা উপস্থিত হয়৷ আরও বিশদ দেখতে, নো কন্টেন্ট টেক্সটের উপরে পয়েন্টার ধরে রাখুন এবং নিরাপত্তা ক্লিক করুন।

Gemini API SDKs

নিম্নলিখিত কোড স্নিপেট দেখায় কিভাবে আপনার GenerateContent কলে নিরাপত্তা সেটিংস সেট করতে হয়। এটি হয়রানি ( HARM_CATEGORY_HARASSMENT ) এবং ঘৃণাত্মক বক্তব্য ( HARM_CATEGORY_HATE_SPEECH ) বিভাগগুলিকে BLOCK_LOW_AND_ABOVE এ সেট করে যা হয়রানি বা ঘৃণামূলক বক্তব্য হওয়ার কম বা বেশি সম্ভাবনা রয়েছে এমন কোনও সামগ্রীকে ব্লক করে৷

পাইথন

from google.generativeai.types import HarmCategory, HarmBlockThreshold

model = genai.GenerativeModel(model_name='gemini-1.5-flash')
response = model.generate_content(
    ['Do these look store-bought or homemade?', img],
    safety_settings={
        HarmCategory.HARM_CATEGORY_HATE_SPEECH: HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
        HarmCategory.HARM_CATEGORY_HARASSMENT: HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
    }
)

যাওয়া

model := client.GenerativeModel("gemini-1.5-flash")

model.SafetySettings = []*genai.SafetySetting{
  {
    Category:  genai.HarmCategoryHarassment,
    Threshold: genai.HarmBlockOnlyLowAndAbove,
  },
  {
    Category:  genai.HarmCategoryHateSpeech,
    Threshold: genai.HarmBlockOnlyLowAndAbove,
  },
}

Node.js

import { HarmBlockThreshold, HarmCategory } from "@google/generative-ai";

// ...

const safetySetting = [
  {
    category:: HarmCategory.HARM_CATEGORY_HARASSMENT,
    threshold: HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
  },
  {
    category:: HarmCategory.HARM_CATEGORY_HATE_SPEECH,
    threshold: HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
  },
];

const model = genAi.getGenerativeModel({ model: "gemini-1.5-flash", safetySettings });

ওয়েব

import { HarmBlockThreshold, HarmCategory } from "@google/generative-ai";

// ...

const safetySetting = [
  {
    category:: HarmCategory.HARM_CATEGORY_HARASSMENT,
    threshold: HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
  },
  {
    category:: HarmCategory.HARM_CATEGORY_HATE_SPEECH,
    threshold: HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
  },
];

const model = genAi.getGenerativeModel({ model: "gemini-1.5-flash", safetySettings });

ডার্ট (ফ্লটার)

final safetySettings = [
  SafetySetting(HarmCategory.harassment, HarmBlockThreshold.low),
  SafetySetting(HarmCategory.hateSpeech, HarmBlockThreshold.low),
];
final model = GenerativeModel(
  model: 'gemini-1.5-flash',
  apiKey: apiKey,
  safetySettings: safetySettings,
);

কোটলিন

val harassmentSafety = SafetySetting(HarmCategory.HARASSMENT, BlockThreshold.LOW_AND_ABOVE)

val hateSpeechSafety = SafetySetting(HarmCategory.HATE_SPEECH, BlockThreshold.LOW_AND_ABOVE)

val generativeModel = GenerativeModel(
    modelName = "gemini-1.5-flash",
    apiKey = BuildConfig.apiKey,
    safetySettings = listOf(harassmentSafety, hateSpeechSafety)
)

জাভা

SafetySetting harassmentSafety = new SafetySetting(HarmCategory.HARASSMENT,
    BlockThreshold.LOW_AND_ABOVE);

SafetySetting hateSpeechSafety = new SafetySetting(HarmCategory.HATE_SPEECH,
    BlockThreshold.LOW_AND_ABOVE);

GenerativeModel gm = new GenerativeModel(
    "gemini-1.5-flash",
    BuildConfig.apiKey,
    null, // generation config is optional
    Arrays.asList(harassmentSafety, hateSpeechSafety)
);

GenerativeModelFutures model = GenerativeModelFutures.from(gm);

পরবর্তী পদক্ষেপ

  • সম্পূর্ণ API সম্পর্কে আরও জানতে API রেফারেন্স দেখুন।
  • এলএলএম-এর সাথে বিকাশ করার সময় নিরাপত্তার বিবেচনার দিকে সাধারণ দৃষ্টিভঙ্গির জন্য নিরাপত্তা নির্দেশিকা পর্যালোচনা করুন।
  • জিগস টিম থেকে সম্ভাব্যতা বনাম তীব্রতা মূল্যায়ন সম্পর্কে আরও জানুন
  • পারস্পেকটিভ API- এর মতো নিরাপত্তা সমাধানে অবদান রাখে এমন পণ্য সম্পর্কে আরও জানুন। * আপনি একটি বিষাক্ত শ্রেণীবিভাগ তৈরি করতে এই নিরাপত্তা সেটিংস ব্যবহার করতে পারেন। শুরু করার জন্য শ্রেণীবিভাগের উদাহরণ দেখুন।