নিরাপত্তা সেটিংস

ওভারভিউ

এই নির্দেশিকা পাঠ্য পরিষেবার জন্য উপলব্ধ PaLM API সামঞ্জস্যযোগ্য নিরাপত্তা সেটিংস বর্ণনা করে। প্রোটোটাইপিং পর্যায়ে, আপনার অ্যাপ্লিকেশনের জন্য কম বা বেশি সীমাবদ্ধ কনফিগারেশন প্রয়োজন কিনা তা দ্রুত মূল্যায়ন করতে আপনি ছয়টি মাত্রায় নিরাপত্তা সেটিংস সামঞ্জস্য করতে পারেন। ডিফল্টরূপে, নিরাপত্তা সেটিংস মাঝারি এবং/অথবা সমস্ত ছয়টি মাত্রা জুড়ে অনিরাপদ সামগ্রী হওয়ার উচ্চ সম্ভাবনা সহ সামগ্রীকে ব্লক করে। এই বেসলাইন সুরক্ষাটি বেশিরভাগ ব্যবহারের ক্ষেত্রে কাজ করার জন্য ডিজাইন করা হয়েছে, তাই আপনার অ্যাপ্লিকেশনের জন্য ধারাবাহিকভাবে প্রয়োজন হলেই আপনার নিরাপত্তা সেটিংস সামঞ্জস্য করা উচিত।

নিরাপত্তা ফিল্টার

সামঞ্জস্যযোগ্য নিরাপত্তা ফিল্টার ছাড়াও, PaLM API-এর মূল ক্ষতির বিরুদ্ধে অন্তর্নির্মিত সুরক্ষা রয়েছে, যেমন বিষয়বস্তু যা শিশুদের নিরাপত্তাকে বিপন্ন করে। এই ধরনের ক্ষতি সবসময় অবরুদ্ধ এবং সমন্বয় করা যাবে না.

সামঞ্জস্যযোগ্য নিরাপত্তা ফিল্টার নিম্নলিখিত বিভাগগুলি কভার করে:

  • অবমাননাকর
  • বিষাক্ত
  • যৌন
  • হিংস্র
  • চিকিৎসা
  • বিপজ্জনক

এই সেটিংস আপনাকে, বিকাশকারীকে, আপনার ব্যবহারের ক্ষেত্রে কী উপযুক্ত তা নির্ধারণ করতে দেয়৷ উদাহরণস্বরূপ, আপনি যদি একটি ভিডিও গেমের সংলাপ তৈরি করছেন, তাহলে গেমের প্রকৃতির কারণে হিংসাত্মক বা বিপজ্জনক হিসাবে রেট দেওয়া আরও সামগ্রীর অনুমতি দেওয়া আপনি গ্রহণযোগ্য বলে মনে করতে পারেন। এই নিরাপত্তা সেটিংসে কিছু নমনীয়তার প্রয়োজন হতে পারে এমন আরও কয়েকটি উদাহরণ ব্যবহার করা হল:

ব্যবহারের ক্ষেত্রে শ্রেণী
অ্যান্টি-হ্যারাসমেন্ট ট্রেনিং অ্যাপ অবমাননাকর, যৌন, বিষাক্ত
মেডিকেল পরীক্ষা স্টাডি পাল চিকিৎসা
চিত্রনাট্য লেখক হিংস্র, যৌন, চিকিৎসা, বিপজ্জনক
বিষাক্ততা শ্রেণীবদ্ধকারী বিষাক্ত, অবমাননাকর

সম্ভাব্যতা বনাম তীব্রতা

PaLM API বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনার উপর ভিত্তি করে বিষয়বস্তু ব্লক করে এবং তীব্রতা নয় । এটি বিবেচনা করা গুরুত্বপূর্ণ কারণ কিছু সামগ্রীর অনিরাপদ হওয়ার সম্ভাবনা কম থাকতে পারে যদিও ক্ষতির তীব্রতা এখনও বেশি হতে পারে। উদাহরণস্বরূপ, বাক্যগুলির তুলনা করা:

  1. রোবট আমাকে ঘুষি মারল।
  2. রোবট আমাকে ছিঁড়ে ফেলেছে।

বাক্য 1 এর ফলে অনিরাপদ হওয়ার উচ্চ সম্ভাবনা হতে পারে তবে আপনি বাক্য 2টিকে সহিংসতার পরিপ্রেক্ষিতে উচ্চতর তীব্রতা বলে বিবেচনা করতে পারেন।

এটি প্রদত্ত, প্রতিটি বিকাশকারীর জন্য সতর্কতার সাথে পরীক্ষা করা এবং শেষ ব্যবহারকারীদের ক্ষতি কমানোর সাথে সাথে তাদের মূল ব্যবহারের ক্ষেত্রে সমর্থন করার জন্য ব্লক করার উপযুক্ত স্তরের কী প্রয়োজন তা বিবেচনা করা গুরুত্বপূর্ণ।

নিরাপত্তা সেটিংস

টেক্সট সার্ভিসে আপনি যে অনুরোধ পাঠান তারই অংশ নিরাপত্তা সেটিংস। আপনি API এ যে প্রতিটি অনুরোধ করেন তার জন্য এটি সামঞ্জস্য করা যেতে পারে। নিম্নলিখিত সারণীতে আপনি যে বিভাগগুলি সেট করতে পারেন সেগুলি তালিকাভুক্ত করে এবং প্রতিটি বিভাগে অন্তর্ভুক্ত ক্ষতির ধরন বর্ণনা করে৷

ক্যাটাগরি বর্ণনা
অবমাননাকর পরিচয় এবং/অথবা সুরক্ষিত বৈশিষ্ট্যকে লক্ষ্য করে নেতিবাচক বা ক্ষতিকর মন্তব্য।
বিষাক্ত অভদ্র, অসম্মানজনক বা অপবিত্র বিষয়বস্তু।
যৌন যৌন ক্রিয়াকলাপ বা অন্যান্য অশ্লীল বিষয়বস্তুর উল্লেখ রয়েছে৷
হিংস্র একটি ব্যক্তি বা গোষ্ঠীর বিরুদ্ধে সহিংসতা বা গোরের সাধারণ বর্ণনার চিত্রিত পরিস্থিতি বর্ণনা করে।
বিপজ্জনক প্রচার করে, সুবিধা দেয় বা ক্ষতিকারক কাজকে উৎসাহিত করে।
চিকিৎসা মেডিকেল বিষয়ের সাথে সম্পর্কিত বিষয়বস্তু

আপনি API রেফারেন্সেও এই সংজ্ঞাগুলি দেখতে পারেন।

নিম্নলিখিত সারণীটি ব্লক সেটিংস বর্ণনা করে যা আপনি প্রতিটি বিভাগের জন্য সামঞ্জস্য করতে পারেন। উদাহরণস্বরূপ, আপনি যদি অবমাননাকর বিষয়বস্তুর জন্য ব্লক সেটিংটি ব্লক কয়েক সেট করেন, তাহলে অবমাননাকর বিষয়বস্তু হওয়ার উচ্চ সম্ভাবনা আছে এমন সবকিছু ব্লক করা হবে। কিন্তু একটি কম সম্ভাবনা সঙ্গে কিছু অনুমোদিত.

যদি সেট না করা হয়, ডিফল্ট ব্লক সেটিং হল কিছু ব্লক করুন বা বেশিরভাগ ব্লক করুন নীতি বিভাগের উপর নির্ভর করে।

থ্রেশহোল্ড (গুগল এআই স্টুডিও) থ্রেশহোল্ড (API) বর্ণনা
কোনটিই ব্লক করবেন না BLOCK_NONE অনিরাপদ সামগ্রীর সম্ভাবনা নির্বিশেষে সর্বদা দেখান
কয়েকটি ব্লক করুন BLOCK_ONLY_HIGH অনিরাপদ বিষয়বস্তুর উচ্চ সম্ভাবনা থাকলে ব্লক করুন
কিছু ব্লক করুন ( যৌন, সহিংস, বিপজ্জনক এবং চিকিৎসার জন্য ডিফল্ট ) BLOCK_MEDIUM_AND_ABOVE অনিরাপদ সামগ্রীর মাঝারি বা উচ্চ সম্ভাবনা থাকলে ব্লক করুন
বেশিরভাগ ব্লক করুন ( অপমানজনক এবং বিষাক্ততার জন্য ডিফল্ট ) BLOCK_LOW_AND_ABOVE অনিরাপদ সামগ্রীর কম, মাঝারি বা উচ্চ সম্ভাবনা থাকলে ব্লক করুন
HARM_BLOCK_THRESHOLD_UNSPECIFIED থ্রেশহোল্ড অনির্দিষ্ট, ডিফল্ট থ্রেশহোল্ড ব্যবহার করে ব্লক করুন

আপনি পাঠ্য পরিষেবাতে আপনার করা প্রতিটি অনুরোধের জন্য এই সেটিংস সেট করতে পারেন। বিস্তারিত জানার জন্য HarmBlockThreshold API রেফারেন্স দেখুন।

নিরাপত্তা প্রতিক্রিয়া

যদি বিষয়বস্তু অবরুদ্ধ করা হয়, তাহলে এপিআই-এর প্রতিক্রিয়া ContentFilter.reason ক্ষেত্রে ব্লক করার কারণ ধারণ করে। যদি কারণটি নিরাপত্তার সাথে সম্পর্কিত হয়, তাহলে প্রতিক্রিয়াটিতে একটি SafetyFeedback ক্ষেত্রও রয়েছে যা সেই অনুরোধের জন্য ব্যবহৃত নিরাপত্তা সেটিংস এবং সেইসাথে একটি নিরাপত্তা রেটিং অন্তর্ভুক্ত করে। নিরাপত্তা রেটিং বিভাগ এবং ক্ষতির শ্রেণীবিভাগের সম্ভাবনা অন্তর্ভুক্ত। ব্লক করা বিষয়বস্তু ফেরত দেওয়া হয় না.

প্রত্যাবর্তন সম্ভাবনা নিম্নলিখিত সারণীতে দেখানো ব্লক আত্মবিশ্বাসের স্তরের সাথে সঙ্গতিপূর্ণ:

সম্ভাবনা বর্ণনা
উপেক্ষিত বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনা নগণ্য
কম বিষয়বস্তু অনিরাপদ হওয়ার সম্ভাবনা কম
মধ্যম বিষয়বস্তু অনিরাপদ হওয়ার মাঝারি সম্ভাবনা রয়েছে
উচ্চ বিষয়বস্তু অনিরাপদ হওয়ার উচ্চ সম্ভাবনা রয়েছে

উদাহরণস্বরূপ, যদি বিষয়বস্তুটি বিষাক্ততার শ্রেণীতে উচ্চ সম্ভাবনা থাকার কারণে অবরুদ্ধ করা হয়, তাহলে প্রত্যাবর্তিত নিরাপত্তা রেটিংটি TOXICITY সমান বিভাগ এবং ক্ষতির সম্ভাবনা HIGH তে সেট করা হবে।

Google AI স্টুডিওতে নিরাপত্তা সেটিংস

আপনি Google AI স্টুডিওতেও এই সেটিংস সেট করতে পারেন। রান সেটিংসে , নিরাপত্তা সেটিংস সম্পাদনায় ক্লিক করুন:

নিরাপত্তা সেটিংস বোতাম

এবং প্রতিটি সেটিং সামঞ্জস্য করতে knobs ব্যবহার করুন:

নিরাপত্তা সেটিংস বোতাম

একটি কোন বিষয়বস্তু বার্তা প্রদর্শিত হয় যদি বিষয়বস্তু ব্লক করা হয়. আরও বিস্তারিত দেখতে, কোন বিষয়বস্তুর উপরে পয়েন্টার ধরে রাখুন এবং নিরাপত্তা ক্লিক করুন।

কোড উদাহরণ

এই বিভাগটি দেখায় কিভাবে পাইথন ক্লায়েন্ট লাইব্রেরি ব্যবহার করে কোডে নিরাপত্তা সেটিংস ব্যবহার করতে হয়।

অনুরোধ উদাহরণ

নিচের একটি পাইথন কোড স্নিপেট দেখানো হয়েছে কিভাবে আপনার GenerateText কলে নিরাপত্তা সেটিংস সেট করতে হয়। এটি Derogatory এবং Violence বিভাগগুলিকে BLOCK_LOW_AND_ABOVE এ সেট করে যা হিংসাত্মক বা অবমাননাকর হওয়ার কম বা বেশি সম্ভাবনা রয়েছে এমন কোনও সামগ্রীকে ব্লক করে।

completion = genai.generate_text(
    model=model,
    prompt=prompt,
    safety_settings=[
        {
            "category": safety_types.HarmCategory.HARM_CATEGORY_DEROGATORY,
            "threshold": safety_types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
        },
        {
            "category": safety_types.HarmCategory.HARM_CATEGORY_VIOLENCE,
            "threshold": safety_types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
        },
    ]
)

প্রতিক্রিয়া উদাহরণ

নিম্নলিখিত প্রতিক্রিয়া থেকে নিরাপত্তা প্রতিক্রিয়া পার্স করার জন্য একটি কোড স্নিপেট দেখায়। নোট করুন যে নিরাপত্তা প্রতিক্রিয়া খালি থাকবে যদি না ব্লক করার কারণটি নিরাপত্তা মাত্রাগুলির মধ্যে একটি হয়।

# First check the content filter reason
for filter in completion.filters:
    print(filter["reason"])

# If any of the reason is "safety", then the safety_feedback field will be
# populated
for feedback in completion.safety_feedback:
    print(feedback["rating"])
    print(feedback["setting"])s

পরবর্তী পদক্ষেপ

  • সম্পূর্ণ API সম্পর্কে আরও জানতে API রেফারেন্স দেখুন।
  • এলএলএম-এর সাথে বিকাশ করার সময় নিরাপত্তার বিবেচনার দিকে সাধারণ দৃষ্টিভঙ্গির জন্য নিরাপত্তা নির্দেশিকা পর্যালোচনা করুন।
  • জিগস টিম থেকে সম্ভাব্যতা বনাম তীব্রতা মূল্যায়ন সম্পর্কে আরও জানুন
  • পারস্পেকটিভ API- এর মতো নিরাপত্তা সমাধানে অবদান রাখে এমন পণ্য সম্পর্কে আরও জানুন।
  • আপনি একটি বিষাক্ত শ্রেণীবিভাগ তৈরি করতে এই নিরাপত্তা সেটিংস ব্যবহার করতে পারেন। শুরু করার জন্য শ্রেণীবিভাগের উদাহরণ দেখুন।