নিরাপত্তা সেটিংস

এই নির্দেশিকা Gemini API-এর জন্য উপলব্ধ সামঞ্জস্যযোগ্য নিরাপত্তা সেটিংস বর্ণনা করে। প্রোটোটাইপিং পর্যায়ে, আপনার অ্যাপ্লিকেশনের জন্য কম বা বেশি সীমাবদ্ধ কনফিগারেশন প্রয়োজন কিনা তা দ্রুত মূল্যায়ন করতে আপনি 4 মাত্রায় নিরাপত্তা সেটিংস সামঞ্জস্য করতে পারেন। ডিফল্টরূপে, নিরাপত্তা সেটিংস কোন মাত্রা জুড়ে অনিরাপদ হওয়ার মাঝারি বা উচ্চ সম্ভাবনা সহ সামগ্রী (প্রম্পট সহ) ব্লক করে। এই বেসলাইন সুরক্ষাটি বেশিরভাগ ব্যবহারের ক্ষেত্রে কাজ করার জন্য ডিজাইন করা হয়েছে, তাই আপনার অ্যাপ্লিকেশনের জন্য ধারাবাহিকভাবে প্রয়োজন হলেই আপনার নিরাপত্তা সেটিংস সামঞ্জস্য করা উচিত।

নিরাপত্তা ফিল্টার

সামঞ্জস্যযোগ্য নিরাপত্তা ফিল্টার ছাড়াও, Gemini API-এর মূল ক্ষতির বিরুদ্ধে অন্তর্নির্মিত সুরক্ষা রয়েছে, যেমন বিষয়বস্তু যা শিশুদের নিরাপত্তাকে বিপন্ন করে। এই ধরনের ক্ষতি সবসময় অবরুদ্ধ এবং সমন্বয় করা যাবে না.

সামঞ্জস্যযোগ্য নিরাপত্তা ফিল্টার নিম্নলিখিত বিভাগগুলি কভার করে:

  • হয়রানি
  • ঘৃণাবাচক কথা
  • যৌনতাপূর্ণ
  • বিপজ্জনক

এই সেটিংস আপনাকে, বিকাশকারীকে, আপনার ব্যবহারের ক্ষেত্রে কী উপযুক্ত তা নির্ধারণ করতে দেয়৷ উদাহরণস্বরূপ, আপনি যদি একটি ভিডিও গেমের সংলাপ তৈরি করছেন, তাহলে গেমের প্রকৃতির কারণে বিপজ্জনক হিসাবে রেট করা হয়েছে এমন আরও সামগ্রীর অনুমতি দেওয়াকে আপনি গ্রহণযোগ্য বলে মনে করতে পারেন। এই নিরাপত্তা সেটিংসে কিছু নমনীয়তার প্রয়োজন হতে পারে এমন আরও কয়েকটি উদাহরণ ব্যবহার করা হল:

ব্যবহারের ক্ষেত্রে শ্রেণী
অ্যান্টি-হ্যারাসমেন্ট ট্রেনিং অ্যাপ ঘৃণামূলক বক্তব্য, যৌনতাপূর্ণ
চিত্রনাট্য লেখক যৌনতাপূর্ণ, বিপজ্জনক
বিষাক্ততা শ্রেণীবদ্ধকারী হয়রানি, বিপজ্জনক

সম্ভাব্যতা বনাম তীব্রতা

Gemini API বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনার উপর ভিত্তি করে বিষয়বস্তু ব্লক করে এবং তীব্রতা নয় । এটি বিবেচনা করা গুরুত্বপূর্ণ কারণ কিছু সামগ্রীর অনিরাপদ হওয়ার সম্ভাবনা কম থাকতে পারে যদিও ক্ষতির তীব্রতা এখনও বেশি হতে পারে। উদাহরণস্বরূপ, বাক্যগুলির তুলনা করা:

  1. রোবট আমাকে ঘুষি মারল।
  2. রোবট আমাকে ছিঁড়ে ফেলেছে।

বাক্য 1 এর ফলে অনিরাপদ হওয়ার উচ্চ সম্ভাবনা হতে পারে তবে আপনি বাক্য 2টিকে সহিংসতার পরিপ্রেক্ষিতে উচ্চতর তীব্রতা বলে বিবেচনা করতে পারেন।

এটি প্রদত্ত, প্রতিটি বিকাশকারীর জন্য সতর্কতার সাথে পরীক্ষা করা এবং শেষ ব্যবহারকারীদের ক্ষতি কমানোর সাথে সাথে তাদের মূল ব্যবহারের ক্ষেত্রে সমর্থন করার জন্য ব্লক করার উপযুক্ত স্তরের কী প্রয়োজন তা বিবেচনা করা গুরুত্বপূর্ণ।

নিরাপত্তা সেটিংস

নিরাপত্তা সেটিংস আপনি জেনারেটিভ পরিষেবাতে পাঠানো অনুরোধের অংশ। আপনি API তে করা প্রতিটি অনুরোধের জন্য সেটিংস সামঞ্জস্য করা যেতে পারে। নিম্নলিখিত সারণীতে আপনি যে বিভাগগুলি সেট করতে পারেন সেগুলি তালিকাভুক্ত করে এবং প্রতিটি বিভাগে অন্তর্ভুক্ত ক্ষতির ধরন বর্ণনা করে৷

ক্যাটাগরি বর্ণনা
হয়রানি পরিচয় এবং/অথবা সুরক্ষিত বৈশিষ্ট্যকে লক্ষ্য করে নেতিবাচক বা ক্ষতিকর মন্তব্য।
ঘৃণাবাচক কথা অভদ্র, অসম্মানজনক বা অপবিত্র বিষয়বস্তু।
যৌনতাপূর্ণ যৌন ক্রিয়াকলাপ বা অন্যান্য অশ্লীল বিষয়বস্তুর উল্লেখ রয়েছে৷
বিপজ্জনক প্রচার করে, সুবিধা দেয় বা ক্ষতিকারক কাজকে উৎসাহিত করে।

এই সংজ্ঞাগুলি API রেফারেন্সেও রয়েছে। মিথুন মডেলগুলি শুধুমাত্র HARM_CATEGORY_HARASSMENT , HARM_CATEGORY_HATE_SPEECH , HARM_CATEGORY_SEXUALLY_EXPLICIT , এবং HARM_CATEGORY_DANGEROUS_CONTENT সমর্থন করে। অন্যান্য বিভাগগুলি PaLM 2 (লেগ্যাসি) মডেল দ্বারা ব্যবহৃত হয়।

নিম্নলিখিত সারণীটি ব্লক সেটিংস বর্ণনা করে যা আপনি প্রতিটি বিভাগের জন্য সামঞ্জস্য করতে পারেন। উদাহরণস্বরূপ, আপনি যদি ঘৃণাত্মক বক্তৃতা বিভাগের জন্য ব্লক সেটিংটি ব্লক কয়েকটিতে সেট করেন, তাহলে ঘৃণাত্মক বক্তব্যের বিষয়বস্তু হওয়ার উচ্চ সম্ভাবনা রয়েছে এমন সমস্ত কিছু ব্লক করা হবে৷ কিন্তু একটি কম সম্ভাবনা সঙ্গে কিছু অনুমোদিত.

যদি সেট না করা হয়, ডিফল্ট ব্লক সেটিং হল সমস্ত বিভাগের জন্য কিছু ব্লক করুন

থ্রেশহোল্ড (গুগল এআই স্টুডিও) থ্রেশহোল্ড (API) বর্ণনা
কোনটিই ব্লক করবেন না BLOCK_NONE অনিরাপদ সামগ্রীর সম্ভাবনা নির্বিশেষে সর্বদা দেখান
কয়েকটি ব্লক করুন BLOCK_ONLY_HIGH অনিরাপদ বিষয়বস্তুর উচ্চ সম্ভাবনা থাকলে ব্লক করুন
কিছু ব্লক BLOCK_MEDIUM_AND_ABOVE অনিরাপদ সামগ্রীর মাঝারি বা উচ্চ সম্ভাবনা থাকলে ব্লক করুন
বেশিরভাগ ব্লক করুন BLOCK_LOW_AND_ABOVE অনিরাপদ সামগ্রীর কম, মাঝারি বা উচ্চ সম্ভাবনা থাকলে ব্লক করুন
HARM_BLOCK_THRESHOLD_UNSPECIFIED থ্রেশহোল্ড অনির্দিষ্ট, ডিফল্ট থ্রেশহোল্ড ব্যবহার করে ব্লক করুন

আপনি জেনারেটিভ পরিষেবাতে আপনার করা প্রতিটি অনুরোধের জন্য এই সেটিংস সেট করতে পারেন। বিস্তারিত জানার জন্য HarmBlockThreshold API রেফারেন্স দেখুন।

নিরাপত্তা প্রতিক্রিয়া

generateContent একটি GenerateContentResponse প্রদান করে যার মধ্যে নিরাপত্তা ফিডব্যাক রয়েছে।

প্রম্পট ফিডব্যাক promptFeedback অন্তর্ভুক্ত করা হয়েছে। যদি promptFeedback.blockReason সেট করা থাকে, তাহলে প্রম্পটের বিষয়বস্তু ব্লক করা হয়েছে।

প্রতিক্রিয়া প্রার্থীর প্রতিক্রিয়া finishReason এবং safetyRatings -এ অন্তর্ভুক্ত করা হয়েছে। যদি প্রতিক্রিয়া বিষয়বস্তু অবরুদ্ধ করা হয় এবং finishReason SAFETY ছিল, আপনি আরও বিশদ বিবরণের জন্য safetyRatings পরীক্ষা করতে পারেন। নিরাপত্তা রেটিং বিভাগ এবং ক্ষতির শ্রেণীবিভাগের সম্ভাবনা অন্তর্ভুক্ত। ব্লক করা বিষয়বস্তু ফেরত দেওয়া হয় না.

প্রত্যাবর্তন সম্ভাবনা নিম্নলিখিত সারণীতে দেখানো ব্লক আত্মবিশ্বাসের স্তরের সাথে সঙ্গতিপূর্ণ:

সম্ভাবনা বর্ণনা
উপেক্ষিত বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনা নগণ্য
কম বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনা কম
মধ্যম বিষয়বস্তু অনিরাপদ হওয়ার মাঝারি সম্ভাবনা রয়েছে
উচ্চ বিষয়বস্তু অনিরাপদ হওয়ার উচ্চ সম্ভাবনা রয়েছে

উদাহরণস্বরূপ, যদি হয়রানি বিভাগের উচ্চ সম্ভাবনা থাকার কারণে বিষয়বস্তুটি অবরুদ্ধ করা হয়, তাহলে প্রত্যাবর্তিত সুরক্ষা রেটিংটি HARASSMENT সমান বিভাগ এবং ক্ষতির সম্ভাবনা HIGH সেট করা হবে।

Google AI স্টুডিওতে নিরাপত্তা সেটিংস

আপনি Google AI স্টুডিওতে নিরাপত্তা সেটিংস সামঞ্জস্য করতে পারেন, কিন্তু আপনি সেগুলি বন্ধ করতে পারবেন না। এটি করতে, রান সেটিংসে , নিরাপত্তা সেটিংস সম্পাদনা ক্লিক করুন:

নিরাপত্তা সেটিংস বোতাম

এবং প্রতিটি সেটিং সামঞ্জস্য করতে knobs ব্যবহার করুন:

নিরাপত্তা সেটিংস বোতাম

একটি কোন বিষয়বস্তু বার্তা প্রদর্শিত হয় যদি বিষয়বস্তু ব্লক করা হয়. আরও বিস্তারিত দেখতে, কোন বিষয়বস্তুর উপরে পয়েন্টার ধরে রাখুন এবং নিরাপত্তা ক্লিক করুন।

কোড উদাহরণ

এই বিভাগটি দেখায় কিভাবে পাইথন ক্লায়েন্ট লাইব্রেরি ব্যবহার করে কোডে নিরাপত্তা সেটিংস ব্যবহার করতে হয়।

অনুরোধ উদাহরণ

আপনার GenerateContent কলে কীভাবে নিরাপত্তা সেটিংস সেট করতে হয় তা দেখায় নিচের একটি পাইথন কোড স্নিপেট। এটি BLOCK_LOW_AND_ABOVE এ ক্ষতির বিভাগগুলি Harassment এবং Hate speech সেট করে যা হয়রানি বা ঘৃণামূলক বক্তব্য হওয়ার কম বা বেশি সম্ভাবনা রয়েছে এমন কোনও সামগ্রীকে ব্লক করে।

from google.generativeai.types import HarmCategory, HarmBlockThreshold

model = genai.GenerativeModel(model_name='gemini-pro-vision')
response = model.generate_content(
    ['Do these look store-bought or homemade?', img],
    safety_settings={
        HarmCategory.HARM_CATEGORY_HATE_SPEECH: HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
        HarmCategory.HARM_CATEGORY_HARASSMENT: HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
    }
)

প্রতিক্রিয়া উদাহরণ

নিম্নলিখিত প্রতিক্রিয়া থেকে নিরাপত্তা প্রতিক্রিয়া পার্স করার জন্য একটি কোড স্নিপেট দেখায়।

try:
  print(response.text)
except ValueError:
  # If the response doesn't contain text, check if the prompt was blocked.
  print(response.prompt_feedback)
  # Also check the finish reason to see if the response was blocked.
  print(response.candidates[0].finish_reason)
  # If the finish reason was SAFETY, the safety ratings have more details.
  print(response.candidates[0].safety_ratings)

পরবর্তী পদক্ষেপ

  • সম্পূর্ণ API সম্পর্কে আরও জানতে API রেফারেন্স দেখুন।
  • এলএলএম-এর সাথে বিকাশ করার সময় নিরাপত্তার বিবেচনার দিকে সাধারণ দৃষ্টিভঙ্গির জন্য নিরাপত্তা নির্দেশিকা পর্যালোচনা করুন।
  • জিগস টিম থেকে সম্ভাব্যতা বনাম তীব্রতা মূল্যায়ন সম্পর্কে আরও জানুন
  • পারস্পেকটিভ API- এর মতো নিরাপত্তা সমাধানে অবদান রাখে এমন পণ্য সম্পর্কে আরও জানুন।
  • আপনি একটি বিষাক্ত শ্রেণীবিভাগ তৈরি করতে এই নিরাপত্তা সেটিংস ব্যবহার করতে পারেন। শুরু করার জন্য শ্রেণীবিভাগের উদাহরণ দেখুন।