এই নির্দেশিকা Gemini API-এর জন্য উপলব্ধ সামঞ্জস্যযোগ্য নিরাপত্তা সেটিংস বর্ণনা করে। প্রোটোটাইপিং পর্যায়ে, আপনার অ্যাপ্লিকেশনের জন্য কম বা বেশি সীমাবদ্ধ কনফিগারেশন প্রয়োজন কিনা তা দ্রুত মূল্যায়ন করতে আপনি 4 মাত্রায় নিরাপত্তা সেটিংস সামঞ্জস্য করতে পারেন। ডিফল্টরূপে, নিরাপত্তা সেটিংস কোন মাত্রা জুড়ে অনিরাপদ হওয়ার মাঝারি বা উচ্চ সম্ভাবনা সহ সামগ্রী (প্রম্পট সহ) ব্লক করে। এই বেসলাইন সুরক্ষাটি বেশিরভাগ ব্যবহারের ক্ষেত্রে কাজ করার জন্য ডিজাইন করা হয়েছে, তাই আপনার অ্যাপ্লিকেশনের জন্য ধারাবাহিকভাবে প্রয়োজন হলেই আপনার নিরাপত্তা সেটিংস সামঞ্জস্য করা উচিত।
নিরাপত্তা ফিল্টার
সামঞ্জস্যযোগ্য নিরাপত্তা ফিল্টার ছাড়াও, Gemini API-এর মূল ক্ষতির বিরুদ্ধে অন্তর্নির্মিত সুরক্ষা রয়েছে, যেমন বিষয়বস্তু যা শিশুদের নিরাপত্তাকে বিপন্ন করে। এই ধরনের ক্ষতি সবসময় অবরুদ্ধ এবং সমন্বয় করা যাবে না.
সামঞ্জস্যযোগ্য নিরাপত্তা ফিল্টার নিম্নলিখিত বিভাগগুলি কভার করে:
- হয়রানি
- ঘৃণাবাচক কথা
- যৌনতাপূর্ণ
- বিপজ্জনক
এই সেটিংস আপনাকে, বিকাশকারীকে, আপনার ব্যবহারের ক্ষেত্রে কী উপযুক্ত তা নির্ধারণ করতে দেয়৷ উদাহরণস্বরূপ, আপনি যদি একটি ভিডিও গেমের সংলাপ তৈরি করছেন, তাহলে গেমের প্রকৃতির কারণে বিপজ্জনক হিসাবে রেট করা হয়েছে এমন আরও সামগ্রীর অনুমতি দেওয়াকে আপনি গ্রহণযোগ্য বলে মনে করতে পারেন। এই নিরাপত্তা সেটিংসে কিছু নমনীয়তার প্রয়োজন হতে পারে এমন আরও কয়েকটি উদাহরণ ব্যবহার করা হল:
ব্যবহারের ক্ষেত্রে | শ্রেণী |
---|---|
অ্যান্টি-হ্যারাসমেন্ট ট্রেনিং অ্যাপ | ঘৃণামূলক বক্তব্য, যৌনতাপূর্ণ |
চিত্রনাট্য লেখক | যৌনতাপূর্ণ, বিপজ্জনক |
বিষাক্ততা শ্রেণীবদ্ধকারী | হয়রানি, বিপজ্জনক |
সম্ভাব্যতা বনাম তীব্রতা
Gemini API বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনার উপর ভিত্তি করে বিষয়বস্তু ব্লক করে এবং তীব্রতা নয় । এটি বিবেচনা করা গুরুত্বপূর্ণ কারণ কিছু সামগ্রীর অনিরাপদ হওয়ার সম্ভাবনা কম থাকতে পারে যদিও ক্ষতির তীব্রতা এখনও বেশি হতে পারে। উদাহরণস্বরূপ, বাক্যগুলির তুলনা করা:
- রোবট আমাকে ঘুষি মারল।
- রোবট আমাকে ছিঁড়ে ফেলেছে।
বাক্য 1 এর ফলে অনিরাপদ হওয়ার উচ্চ সম্ভাবনা হতে পারে তবে আপনি বাক্য 2টিকে সহিংসতার পরিপ্রেক্ষিতে উচ্চতর তীব্রতা বলে বিবেচনা করতে পারেন।
এটি প্রদত্ত, প্রতিটি বিকাশকারীর জন্য সতর্কতার সাথে পরীক্ষা করা এবং শেষ ব্যবহারকারীদের ক্ষতি কমানোর সাথে সাথে তাদের মূল ব্যবহারের ক্ষেত্রে সমর্থন করার জন্য ব্লক করার উপযুক্ত স্তরের কী প্রয়োজন তা বিবেচনা করা গুরুত্বপূর্ণ।
নিরাপত্তা সেটিংস
নিরাপত্তা সেটিংস আপনি জেনারেটিভ পরিষেবাতে পাঠানো অনুরোধের অংশ। আপনি API তে করা প্রতিটি অনুরোধের জন্য সেটিংস সামঞ্জস্য করা যেতে পারে। নিম্নলিখিত সারণীতে আপনি যে বিভাগগুলি সেট করতে পারেন সেগুলি তালিকাভুক্ত করে এবং প্রতিটি বিভাগে অন্তর্ভুক্ত ক্ষতির ধরন বর্ণনা করে৷
ক্যাটাগরি | বর্ণনা |
---|---|
হয়রানি | পরিচয় এবং/অথবা সুরক্ষিত বৈশিষ্ট্যকে লক্ষ্য করে নেতিবাচক বা ক্ষতিকর মন্তব্য। |
ঘৃণাবাচক কথা | অভদ্র, অসম্মানজনক বা অপবিত্র বিষয়বস্তু। |
যৌনতাপূর্ণ | যৌন ক্রিয়াকলাপ বা অন্যান্য অশ্লীল বিষয়বস্তুর উল্লেখ রয়েছে৷ |
বিপজ্জনক | প্রচার করে, সুবিধা দেয় বা ক্ষতিকারক কাজকে উৎসাহিত করে। |
এই সংজ্ঞাগুলি API রেফারেন্সেও রয়েছে। মিথুন মডেলগুলি শুধুমাত্র HARM_CATEGORY_HARASSMENT
, HARM_CATEGORY_HATE_SPEECH
, HARM_CATEGORY_SEXUALLY_EXPLICIT
, এবং HARM_CATEGORY_DANGEROUS_CONTENT
সমর্থন করে। অন্যান্য বিভাগগুলি PaLM 2 (লেগ্যাসি) মডেল দ্বারা ব্যবহৃত হয়।
নিম্নলিখিত সারণীটি ব্লক সেটিংস বর্ণনা করে যা আপনি প্রতিটি বিভাগের জন্য সামঞ্জস্য করতে পারেন। উদাহরণস্বরূপ, আপনি যদি ঘৃণাত্মক বক্তৃতা বিভাগের জন্য ব্লক সেটিংটি ব্লক কয়েকটিতে সেট করেন, তাহলে ঘৃণাত্মক বক্তব্যের বিষয়বস্তু হওয়ার উচ্চ সম্ভাবনা রয়েছে এমন সমস্ত কিছু ব্লক করা হবে৷ কিন্তু একটি কম সম্ভাবনা সঙ্গে কিছু অনুমোদিত.
যদি সেট না করা হয়, ডিফল্ট ব্লক সেটিং হল সমস্ত বিভাগের জন্য কিছু ব্লক করুন ।
থ্রেশহোল্ড (গুগল এআই স্টুডিও) | থ্রেশহোল্ড (API) | বর্ণনা |
---|---|---|
কোনটিই ব্লক করবেন না | BLOCK_NONE | অনিরাপদ সামগ্রীর সম্ভাবনা নির্বিশেষে সর্বদা দেখান |
কয়েকটি ব্লক করুন | BLOCK_ONLY_HIGH | অনিরাপদ বিষয়বস্তুর উচ্চ সম্ভাবনা থাকলে ব্লক করুন |
কিছু ব্লক | BLOCK_MEDIUM_AND_ABOVE | অনিরাপদ সামগ্রীর মাঝারি বা উচ্চ সম্ভাবনা থাকলে ব্লক করুন |
বেশিরভাগ ব্লক করুন | BLOCK_LOW_AND_ABOVE | অনিরাপদ সামগ্রীর কম, মাঝারি বা উচ্চ সম্ভাবনা থাকলে ব্লক করুন |
HARM_BLOCK_THRESHOLD_UNSPECIFIED | থ্রেশহোল্ড অনির্দিষ্ট, ডিফল্ট থ্রেশহোল্ড ব্যবহার করে ব্লক করুন |
আপনি জেনারেটিভ পরিষেবাতে আপনার করা প্রতিটি অনুরোধের জন্য এই সেটিংস সেট করতে পারেন। বিস্তারিত জানার জন্য HarmBlockThreshold
API রেফারেন্স দেখুন।
নিরাপত্তা প্রতিক্রিয়া
generateContent
একটি GenerateContentResponse
প্রদান করে যার মধ্যে নিরাপত্তা ফিডব্যাক রয়েছে।
প্রম্পট ফিডব্যাক promptFeedback
অন্তর্ভুক্ত করা হয়েছে। যদি promptFeedback.blockReason
সেট করা থাকে, তাহলে প্রম্পটের বিষয়বস্তু ব্লক করা হয়েছে।
প্রতিক্রিয়া প্রার্থীর প্রতিক্রিয়া finishReason
এবং safetyRatings
-এ অন্তর্ভুক্ত করা হয়েছে। যদি প্রতিক্রিয়া বিষয়বস্তু অবরুদ্ধ করা হয় এবং finishReason
SAFETY
ছিল, আপনি আরও বিশদ বিবরণের জন্য safetyRatings
পরীক্ষা করতে পারেন। নিরাপত্তা রেটিং বিভাগ এবং ক্ষতির শ্রেণীবিভাগের সম্ভাবনা অন্তর্ভুক্ত। ব্লক করা বিষয়বস্তু ফেরত দেওয়া হয় না.
প্রত্যাবর্তন সম্ভাবনা নিম্নলিখিত সারণীতে দেখানো ব্লক আত্মবিশ্বাসের স্তরের সাথে সঙ্গতিপূর্ণ:
সম্ভাবনা | বর্ণনা |
---|---|
উপেক্ষিত | বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনা নগণ্য |
কম | বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনা কম |
মধ্যম | বিষয়বস্তু অনিরাপদ হওয়ার মাঝারি সম্ভাবনা রয়েছে |
উচ্চ | বিষয়বস্তু অনিরাপদ হওয়ার উচ্চ সম্ভাবনা রয়েছে |
উদাহরণস্বরূপ, যদি হয়রানি বিভাগের উচ্চ সম্ভাবনা থাকার কারণে বিষয়বস্তুটি অবরুদ্ধ করা হয়, তাহলে প্রত্যাবর্তিত সুরক্ষা রেটিংটি HARASSMENT
সমান বিভাগ এবং ক্ষতির সম্ভাবনা HIGH
সেট করা হবে।
Google AI স্টুডিওতে নিরাপত্তা সেটিংস
আপনি Google AI স্টুডিওতে নিরাপত্তা সেটিংস সামঞ্জস্য করতে পারেন, কিন্তু আপনি সেগুলি বন্ধ করতে পারবেন না। এটি করতে, রান সেটিংসে , নিরাপত্তা সেটিংস সম্পাদনা ক্লিক করুন:
এবং প্রতিটি সেটিং সামঞ্জস্য করতে knobs ব্যবহার করুন:
একটি
কোন বিষয়বস্তু বার্তা প্রদর্শিত হয় যদি বিষয়বস্তু ব্লক করা হয়. আরও বিস্তারিত দেখতে, কোন বিষয়বস্তুর উপরে পয়েন্টার ধরে রাখুন এবং নিরাপত্তা ক্লিক করুন।কোড উদাহরণ
এই বিভাগটি দেখায় কিভাবে পাইথন ক্লায়েন্ট লাইব্রেরি ব্যবহার করে কোডে নিরাপত্তা সেটিংস ব্যবহার করতে হয়।
অনুরোধ উদাহরণ
আপনার GenerateContent
কলে কীভাবে নিরাপত্তা সেটিংস সেট করতে হয় তা দেখায় নিচের একটি পাইথন কোড স্নিপেট। এটি BLOCK_LOW_AND_ABOVE
এ ক্ষতির বিভাগগুলি Harassment
এবং Hate speech
সেট করে যা হয়রানি বা ঘৃণামূলক বক্তব্য হওয়ার কম বা বেশি সম্ভাবনা রয়েছে এমন কোনও সামগ্রীকে ব্লক করে।
from google.generativeai.types import HarmCategory, HarmBlockThreshold
model = genai.GenerativeModel(model_name='gemini-pro-vision')
response = model.generate_content(
['Do these look store-bought or homemade?', img],
safety_settings={
HarmCategory.HARM_CATEGORY_HATE_SPEECH: HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
HarmCategory.HARM_CATEGORY_HARASSMENT: HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
}
)
প্রতিক্রিয়া উদাহরণ
নিম্নলিখিত প্রতিক্রিয়া থেকে নিরাপত্তা প্রতিক্রিয়া পার্স করার জন্য একটি কোড স্নিপেট দেখায়।
try:
print(response.text)
except ValueError:
# If the response doesn't contain text, check if the prompt was blocked.
print(response.prompt_feedback)
# Also check the finish reason to see if the response was blocked.
print(response.candidates[0].finish_reason)
# If the finish reason was SAFETY, the safety ratings have more details.
print(response.candidates[0].safety_ratings)
পরবর্তী পদক্ষেপ
- সম্পূর্ণ API সম্পর্কে আরও জানতে API রেফারেন্স দেখুন।
- এলএলএম-এর সাথে বিকাশ করার সময় নিরাপত্তার বিবেচনার দিকে সাধারণ দৃষ্টিভঙ্গির জন্য নিরাপত্তা নির্দেশিকা পর্যালোচনা করুন।
- জিগস টিম থেকে সম্ভাব্যতা বনাম তীব্রতা মূল্যায়ন সম্পর্কে আরও জানুন
- পারস্পেকটিভ API- এর মতো নিরাপত্তা সমাধানে অবদান রাখে এমন পণ্য সম্পর্কে আরও জানুন।
- আপনি একটি বিষাক্ত শ্রেণীবিভাগ তৈরি করতে এই নিরাপত্তা সেটিংস ব্যবহার করতে পারেন। শুরু করার জন্য শ্রেণীবিভাগের উদাহরণ দেখুন।