ওভারভিউ
এই নির্দেশিকা পাঠ্য পরিষেবার জন্য উপলব্ধ PaLM API সামঞ্জস্যযোগ্য নিরাপত্তা সেটিংস বর্ণনা করে। প্রোটোটাইপিং পর্যায়ে, আপনার অ্যাপ্লিকেশনের জন্য কম বা বেশি সীমাবদ্ধ কনফিগারেশন প্রয়োজন কিনা তা দ্রুত মূল্যায়ন করতে আপনি ছয়টি মাত্রায় নিরাপত্তা সেটিংস সামঞ্জস্য করতে পারেন। ডিফল্টরূপে, নিরাপত্তা সেটিংস মাঝারি এবং/অথবা সমস্ত ছয়টি মাত্রা জুড়ে অনিরাপদ সামগ্রী হওয়ার উচ্চ সম্ভাবনা সহ সামগ্রীকে ব্লক করে। এই বেসলাইন সুরক্ষাটি বেশিরভাগ ব্যবহারের ক্ষেত্রে কাজ করার জন্য ডিজাইন করা হয়েছে, তাই আপনার অ্যাপ্লিকেশনের জন্য ধারাবাহিকভাবে প্রয়োজন হলেই আপনার নিরাপত্তা সেটিংস সামঞ্জস্য করা উচিত।
নিরাপত্তা ফিল্টার
সামঞ্জস্যযোগ্য নিরাপত্তা ফিল্টার ছাড়াও, PaLM API-এর মূল ক্ষতির বিরুদ্ধে অন্তর্নির্মিত সুরক্ষা রয়েছে, যেমন বিষয়বস্তু যা শিশুদের নিরাপত্তাকে বিপন্ন করে। এই ধরনের ক্ষতি সবসময় অবরুদ্ধ এবং সমন্বয় করা যাবে না.
সামঞ্জস্যযোগ্য নিরাপত্তা ফিল্টার নিম্নলিখিত বিভাগগুলি কভার করে:
- অবমাননাকর
- বিষাক্ত
- যৌন
- হিংস্র
- চিকিৎসা
- বিপজ্জনক
এই সেটিংস আপনাকে, বিকাশকারীকে, আপনার ব্যবহারের ক্ষেত্রে কী উপযুক্ত তা নির্ধারণ করতে দেয়৷ উদাহরণস্বরূপ, আপনি যদি একটি ভিডিও গেমের সংলাপ তৈরি করছেন, তাহলে গেমের প্রকৃতির কারণে হিংসাত্মক বা বিপজ্জনক হিসাবে রেট দেওয়া আরও সামগ্রীর অনুমতি দেওয়া আপনি গ্রহণযোগ্য বলে মনে করতে পারেন। এই নিরাপত্তা সেটিংসে কিছু নমনীয়তার প্রয়োজন হতে পারে এমন আরও কয়েকটি উদাহরণ ব্যবহার করা হল:
ব্যবহারের ক্ষেত্রে | শ্রেণী |
---|---|
অ্যান্টি-হ্যারাসমেন্ট ট্রেনিং অ্যাপ | অবমাননাকর, যৌন, বিষাক্ত |
মেডিকেল পরীক্ষা স্টাডি পাল | চিকিৎসা |
চিত্রনাট্য লেখক | হিংস্র, যৌন, চিকিৎসা, বিপজ্জনক |
বিষাক্ততা শ্রেণীবদ্ধকারী | বিষাক্ত, অবমাননাকর |
সম্ভাব্যতা বনাম তীব্রতা
PaLM API বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনার উপর ভিত্তি করে বিষয়বস্তু ব্লক করে এবং তীব্রতা নয় । এটি বিবেচনা করা গুরুত্বপূর্ণ কারণ কিছু সামগ্রীর অনিরাপদ হওয়ার সম্ভাবনা কম থাকতে পারে যদিও ক্ষতির তীব্রতা এখনও বেশি হতে পারে। উদাহরণস্বরূপ, বাক্যগুলির তুলনা করা:
- রোবট আমাকে ঘুষি মারল।
- রোবট আমাকে ছিঁড়ে ফেলেছে।
বাক্য 1 এর ফলে অনিরাপদ হওয়ার উচ্চ সম্ভাবনা হতে পারে তবে আপনি বাক্য 2টিকে সহিংসতার পরিপ্রেক্ষিতে উচ্চতর তীব্রতা বলে বিবেচনা করতে পারেন।
এটি প্রদত্ত, প্রতিটি বিকাশকারীর জন্য সতর্কতার সাথে পরীক্ষা করা এবং শেষ ব্যবহারকারীদের ক্ষতি কমানোর সাথে সাথে তাদের মূল ব্যবহারের ক্ষেত্রে সমর্থন করার জন্য ব্লক করার উপযুক্ত স্তরের কী প্রয়োজন তা বিবেচনা করা গুরুত্বপূর্ণ।
নিরাপত্তা সেটিংস
টেক্সট সার্ভিসে আপনি যে অনুরোধ পাঠান তারই অংশ নিরাপত্তা সেটিংস। আপনি API এ যে প্রতিটি অনুরোধ করেন তার জন্য এটি সামঞ্জস্য করা যেতে পারে। নিম্নলিখিত সারণীতে আপনি যে বিভাগগুলি সেট করতে পারেন সেগুলি তালিকাভুক্ত করে এবং প্রতিটি বিভাগে অন্তর্ভুক্ত ক্ষতির ধরন বর্ণনা করে৷
ক্যাটাগরি | বর্ণনা |
---|---|
অবমাননাকর | পরিচয় এবং/অথবা সুরক্ষিত বৈশিষ্ট্যকে লক্ষ্য করে নেতিবাচক বা ক্ষতিকর মন্তব্য। |
বিষাক্ত | অভদ্র, অসম্মানজনক বা অপবিত্র বিষয়বস্তু। |
যৌন | যৌন ক্রিয়াকলাপ বা অন্যান্য অশ্লীল বিষয়বস্তুর উল্লেখ রয়েছে৷ |
হিংস্র | একটি ব্যক্তি বা গোষ্ঠীর বিরুদ্ধে সহিংসতা বা গোরের সাধারণ বর্ণনার চিত্রিত পরিস্থিতি বর্ণনা করে। |
বিপজ্জনক | প্রচার করে, সুবিধা দেয় বা ক্ষতিকারক কাজকে উৎসাহিত করে। |
চিকিৎসা | মেডিকেল বিষয়ের সাথে সম্পর্কিত বিষয়বস্তু |
আপনি API রেফারেন্সেও এই সংজ্ঞাগুলি দেখতে পারেন।
নিম্নলিখিত সারণীটি ব্লক সেটিংস বর্ণনা করে যা আপনি প্রতিটি বিভাগের জন্য সামঞ্জস্য করতে পারেন। উদাহরণস্বরূপ, আপনি যদি অবমাননাকর বিষয়বস্তুর জন্য ব্লক সেটিংটি ব্লক কয়েক সেট করেন, তাহলে অবমাননাকর বিষয়বস্তু হওয়ার উচ্চ সম্ভাবনা আছে এমন সবকিছু ব্লক করা হবে। কিন্তু একটি কম সম্ভাবনা সঙ্গে কিছু অনুমোদিত.
যদি সেট না করা হয়, ডিফল্ট ব্লক সেটিং হল কিছু ব্লক করুন বা বেশিরভাগ ব্লক করুন নীতি বিভাগের উপর নির্ভর করে।
থ্রেশহোল্ড (গুগল এআই স্টুডিও) | থ্রেশহোল্ড (API) | বর্ণনা |
---|---|---|
কোনটিই ব্লক করবেন না | BLOCK_NONE | অনিরাপদ সামগ্রীর সম্ভাবনা নির্বিশেষে সর্বদা দেখান |
কয়েকটি ব্লক করুন | BLOCK_ONLY_HIGH | অনিরাপদ বিষয়বস্তুর উচ্চ সম্ভাবনা থাকলে ব্লক করুন |
কিছু ব্লক করুন ( যৌন, সহিংস, বিপজ্জনক এবং চিকিৎসার জন্য ডিফল্ট ) | BLOCK_MEDIUM_AND_ABOVE | অনিরাপদ সামগ্রীর মাঝারি বা উচ্চ সম্ভাবনা থাকলে ব্লক করুন |
বেশিরভাগ ব্লক করুন ( অপমানজনক এবং বিষাক্ততার জন্য ডিফল্ট ) | BLOCK_LOW_AND_ABOVE | অনিরাপদ সামগ্রীর কম, মাঝারি বা উচ্চ সম্ভাবনা থাকলে ব্লক করুন |
HARM_BLOCK_THRESHOLD_UNSPECIFIED | থ্রেশহোল্ড অনির্দিষ্ট, ডিফল্ট থ্রেশহোল্ড ব্যবহার করে ব্লক করুন |
আপনি পাঠ্য পরিষেবাতে আপনার করা প্রতিটি অনুরোধের জন্য এই সেটিংস সেট করতে পারেন। বিস্তারিত জানার জন্য HarmBlockThreshold
API রেফারেন্স দেখুন।
নিরাপত্তা প্রতিক্রিয়া
যদি বিষয়বস্তু অবরুদ্ধ করা হয়, তাহলে এপিআই-এর প্রতিক্রিয়া ContentFilter.reason
ক্ষেত্রে ব্লক করার কারণ ধারণ করে। যদি কারণটি নিরাপত্তার সাথে সম্পর্কিত হয়, তাহলে প্রতিক্রিয়াটিতে একটি SafetyFeedback
ক্ষেত্রও রয়েছে যা সেই অনুরোধের জন্য ব্যবহৃত নিরাপত্তা সেটিংস এবং সেইসাথে একটি নিরাপত্তা রেটিং অন্তর্ভুক্ত করে। নিরাপত্তা রেটিং বিভাগ এবং ক্ষতির শ্রেণীবিভাগের সম্ভাবনা অন্তর্ভুক্ত। ব্লক করা বিষয়বস্তু ফেরত দেওয়া হয় না.
প্রত্যাবর্তন সম্ভাবনা নিম্নলিখিত সারণীতে দেখানো ব্লক আত্মবিশ্বাসের স্তরের সাথে সঙ্গতিপূর্ণ:
সম্ভাবনা | বর্ণনা |
---|---|
উপেক্ষিত | বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনা নগণ্য |
কম | বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনা কম |
মধ্যম | বিষয়বস্তু অনিরাপদ হওয়ার মাঝারি সম্ভাবনা রয়েছে |
উচ্চ | বিষয়বস্তু অনিরাপদ হওয়ার উচ্চ সম্ভাবনা রয়েছে |
উদাহরণস্বরূপ, যদি বিষয়বস্তুটি বিষাক্ততার শ্রেণীতে উচ্চ সম্ভাবনা থাকার কারণে অবরুদ্ধ করা হয়, তাহলে প্রত্যাবর্তিত নিরাপত্তা রেটিংটি TOXICITY
সমান বিভাগ এবং ক্ষতির সম্ভাবনা HIGH
তে সেট করা হবে।
Google AI স্টুডিওতে নিরাপত্তা সেটিংস
আপনি Google AI স্টুডিওতেও এই সেটিংস সেট করতে পারেন। রান সেটিংসে , নিরাপত্তা সেটিংস সম্পাদনায় ক্লিক করুন:
এবং প্রতিটি সেটিং সামঞ্জস্য করতে knobs ব্যবহার করুন:
একটি
কোন বিষয়বস্তু বার্তা প্রদর্শিত হয় যদি বিষয়বস্তু ব্লক করা হয়. আরও বিস্তারিত দেখতে, কোন বিষয়বস্তুর উপরে পয়েন্টার ধরে রাখুন এবং নিরাপত্তা ক্লিক করুন।কোড উদাহরণ
এই বিভাগটি দেখায় কিভাবে পাইথন ক্লায়েন্ট লাইব্রেরি ব্যবহার করে কোডে নিরাপত্তা সেটিংস ব্যবহার করতে হয়।
অনুরোধ উদাহরণ
নিচের একটি পাইথন কোড স্নিপেট দেখানো হয়েছে কিভাবে আপনার GenerateText
কলে নিরাপত্তা সেটিংস সেট করতে হয়। এটি Derogatory
এবং Violence
বিভাগগুলিকে BLOCK_LOW_AND_ABOVE
এ সেট করে যা হিংসাত্মক বা অবমাননাকর হওয়ার কম বা বেশি সম্ভাবনা রয়েছে এমন কোনও সামগ্রীকে ব্লক করে।
completion = genai.generate_text(
model=model,
prompt=prompt,
safety_settings=[
{
"category": safety_types.HarmCategory.HARM_CATEGORY_DEROGATORY,
"threshold": safety_types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
},
{
"category": safety_types.HarmCategory.HARM_CATEGORY_VIOLENCE,
"threshold": safety_types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
},
]
)
প্রতিক্রিয়া উদাহরণ
নিম্নলিখিত প্রতিক্রিয়া থেকে নিরাপত্তা প্রতিক্রিয়া পার্স করার জন্য একটি কোড স্নিপেট দেখায়। নোট করুন যে নিরাপত্তা প্রতিক্রিয়া খালি থাকবে যদি না ব্লক করার কারণটি নিরাপত্তা মাত্রাগুলির মধ্যে একটি হয়।
# First check the content filter reason
for filter in completion.filters:
print(filter["reason"])
# If any of the reason is "safety", then the safety_feedback field will be
# populated
for feedback in completion.safety_feedback:
print(feedback["rating"])
print(feedback["setting"])s
পরবর্তী পদক্ষেপ
- সম্পূর্ণ API সম্পর্কে আরও জানতে API রেফারেন্স দেখুন।
- এলএলএম-এর সাথে বিকাশ করার সময় নিরাপত্তার বিবেচনার দিকে সাধারণ দৃষ্টিভঙ্গির জন্য নিরাপত্তা নির্দেশিকা পর্যালোচনা করুন।
- জিগস টিম থেকে সম্ভাব্যতা বনাম তীব্রতা মূল্যায়ন সম্পর্কে আরও জানুন
- পারস্পেকটিভ API- এর মতো নিরাপত্তা সমাধানে অবদান রাখে এমন পণ্য সম্পর্কে আরও জানুন।
- আপনি একটি বিষাক্ত শ্রেণীবিভাগ তৈরি করতে এই নিরাপত্তা সেটিংস ব্যবহার করতে পারেন। শুরু করার জন্য শ্রেণীবিভাগের উদাহরণ দেখুন।