মডেল পৃষ্ঠা : ফাংশনজেমা
সম্পদ এবং প্রযুক্তিগত ডকুমেন্টেশন :
ব্যবহারের শর্তাবলী : শর্তাবলী
লেখক : গুগল ডিপমাইন্ড
মডেল তথ্য
ইনপুট এবং আউটপুটের সংক্ষিপ্ত বিবরণ এবং সংক্ষিপ্ত সংজ্ঞা।
বিবরণ
দ্রষ্টব্য: FunctionGemma আপনার নির্দিষ্ট ফাংশন-কলিং টাস্কের জন্য, মাল্টি-টার্ন ব্যবহারের ক্ষেত্রেও, সূক্ষ্মভাবে সুরক্ষিত করার উদ্দেশ্যে তৈরি।
FunctionGemma হল Google-এর একটি হালকা, উন্মুক্ত মডেল, যা আপনার নিজস্ব বিশেষায়িত ফাংশন কলিং মডেল তৈরির ভিত্তি হিসেবে তৈরি। FunctionGemma সরাসরি সংলাপ মডেল হিসেবে ব্যবহারের জন্য নয়, এবং আরও সূক্ষ্ম-টিউনিংয়ের পরে উচ্চ কার্যকারিতা অর্জনের জন্য ডিজাইন করা হয়েছে, যেমনটি এই আকারের মডেলগুলির জন্য সাধারণ। Gemma 3 270M মডেলের উপর নির্মিত এবং Gemini মডেল তৈরিতে ব্যবহৃত একই গবেষণা এবং প্রযুক্তি ব্যবহার করে, FunctionGemma কে ফাংশন কলিংয়ের জন্য বিশেষভাবে প্রশিক্ষণ দেওয়া হয়েছে। মডেলটির Gemma 3 এর মতো একই স্থাপত্য রয়েছে, তবে এটি একটি ভিন্ন চ্যাট ফর্ম্যাট ব্যবহার করে। মডেলটি শুধুমাত্র টেক্সট-অনলি ফাংশন কলিংয়ের জন্য উপযুক্ত। অনন্যভাবে ছোট আকার ল্যাপটপ, ডেস্কটপ বা আপনার নিজস্ব ক্লাউড অবকাঠামোর মতো সীমিত সংস্থান সহ পরিবেশে স্থাপন করা সম্ভব করে, অত্যাধুনিক AI মডেলগুলিতে অ্যাক্সেসকে গণতান্ত্রিক করে এবং সকলের জন্য উদ্ভাবনকে উৎসাহিত করে। তদুপরি, বেস জেম্মা ২৭০এম-এর মতো, মডেলটিকে অত্যন্ত বহুমুখী, একক টার্ন পরিস্থিতিতে বিভিন্ন হার্ডওয়্যারে পারফর্মেন্স প্রদানের জন্য অপ্টিমাইজ করা হয়েছে, তবে নির্দিষ্ট ডোমেনে সর্বোত্তম নির্ভুলতা অর্জনের জন্য একক টার্ন বা মাল্টিটার্ন টাস্ক-নির্দিষ্ট ডেটাতে সূক্ষ্ম সুর করা উচিত। ২৭০এম প্যারামিটার মডেলটি কীভাবে বিশেষায়িত করে নির্দিষ্ট এজেন্টিক ওয়ার্কফ্লোতে উচ্চ কর্মক্ষমতা অর্জন করতে পারে তা প্রদর্শনের জন্য, আমরা গুগল এআই এজ গ্যালারি অ্যাপে দুটি ব্যবহারের ঘটনা তুলে ধরেছি।
ক্ষুদ্র উদ্যান: একটি মডেল যা ভয়েস-নিয়ন্ত্রিত ইন্টারেক্টিভ গেমকে শক্তিশালী করার জন্য সূক্ষ্মভাবে সুরক্ষিত। এটি একটি ভার্চুয়াল জমি পরিচালনা করার জন্য গেম লজিক পরিচালনা করে, "উপরের সারিতে সূর্যমুখী গাছ লাগান" এবং "প্লট ১ এবং ২-এ ফুল জল দিন" এর মতো কমান্ডগুলিকে অ্যাপ-নির্দিষ্ট ফাংশনে (যেমন, উদ্ভিদ_বীজ, জল_প্লট) এবং সমন্বয় লক্ষ্যগুলিতে বিভক্ত করে। এটি সার্ভার সংযোগ ছাড়াই কাস্টম অ্যাপ মেকানিক্স চালানোর মডেলের ক্ষমতা প্রদর্শন করে।
মোবাইল অ্যাকশন: ডেভেলপারদের তাদের নিজস্ব বিশেষজ্ঞ এজেন্ট তৈরি করার ক্ষমতা প্রদানের জন্য, আমরা FunctionGemma-এর ফাইন-টিউনিং প্রদর্শনের জন্য একটি ডেটাসেট এবং ফাইন-টিউনিং রেসিপি প্রকাশ করেছি। এটি ব্যবহারকারীর ইনপুটগুলিকে (যেমন, "লাঞ্চের জন্য একটি ক্যালেন্ডার ইভেন্ট তৈরি করুন," "টর্চলাইট চালু করুন") অ্যান্ড্রয়েড ওএস সিস্টেম টুলগুলিকে ট্রিগার করে এমন ফাংশন কলে অনুবাদ করে। এই ইন্টারেক্টিভ নোটবুকটি দেখায় যে কীভাবে বেস ফাংশনগেমা মডেলটি নেওয়া যায় এবং গুগল এআই এজ গ্যালারি অ্যাপে ব্যবহারের জন্য স্ক্র্যাচ থেকে "মোবাইল অ্যাকশন" ফাইন টিউন তৈরি করা যায়। এই ব্যবহারের ক্ষেত্রে ব্যক্তিগত ডিভাইসের কাজের জন্য অফলাইন, ব্যক্তিগত এজেন্ট হিসাবে কাজ করার মডেলের ক্ষমতা প্রদর্শন করা হয়।
ইনপুট এবং আউটপুট
- ইনপুট:
- টেক্সট স্ট্রিং, যেমন একটি প্রশ্ন, একটি প্রম্পট, অথবা একটি ডকুমেন্ট যা সারসংক্ষেপে প্রকাশ করা হবে
- মোট ৩২,০০০ টোকেনের ইনপুট প্রসঙ্গ
- আউটপুট:
- ইনপুটের প্রতিক্রিয়ায় তৈরি করা টেক্সট, যেমন কোনও প্রশ্নের উত্তর, অথবা কোনও নথির সারাংশ
- অনুরোধের ইনপুট টোকেন বিয়োগ করে, প্রতি অনুরোধে মোট আউটপুট প্রসঙ্গ 32K টোকেন পর্যন্ত
মডেল ডেটা
মডেল প্রশিক্ষণের জন্য ব্যবহৃত ডেটা এবং কীভাবে ডেটা প্রক্রিয়া করা হয়েছিল।
প্রশিক্ষণ ডেটাসেট
এই মডেলগুলিকে টেক্সট ডেটার একটি ডেটাসেটের উপর প্রশিক্ষণ দেওয়া হয়েছিল যার মধ্যে বিভিন্ন ধরণের উৎস অন্তর্ভুক্ত ছিল। মডেলটিকে 6T টোকেন দিয়ে প্রশিক্ষণ দেওয়া হয়েছিল। প্রশিক্ষণ ডেটার জ্ঞানের কাটঅফ তারিখ ছিল 2024 সালের আগস্ট। এর মূল উপাদানগুলি হল:
- পাবলিক টুলের সংজ্ঞা - ওয়েবে পাওয়া সাধারণ API গুলি
- টুল ব্যবহারের ইন্টারঅ্যাকশন - এগুলি হল মডেল থেকে প্রম্পট, ফাংশন কল, ফাংশন রেসপন্স এবং প্রাকৃতিক ভাষার রেসপন্সের মিশ্রণ যা ফাংশন কল রেসপন্সের সারসংক্ষেপ তৈরি করে, অথবা প্রম্পটটি অস্পষ্ট বা অসম্পূর্ণ থাকলে স্পষ্টীকরণের অনুরোধ করে।
ডেটা প্রিপ্রসেসিং
প্রশিক্ষণ ডেটাতে প্রয়োগ করা মূল ডেটা পরিষ্কার এবং ফিল্টারিং পদ্ধতিগুলি এখানে দেওয়া হল:
- CSAM ফিল্টারিং: ক্ষতিকারক এবং অবৈধ বিষয়বস্তু বাদ দেওয়ার জন্য তথ্য প্রস্তুতির প্রক্রিয়ার একাধিক পর্যায়ে কঠোর CSAM (শিশু যৌন নির্যাতনের উপাদান) ফিল্টারিং প্রয়োগ করা হয়েছিল।
- সংবেদনশীল ডেটা ফিল্টারিং: জেম্মা প্রাক-প্রশিক্ষিত মডেলগুলিকে নিরাপদ এবং নির্ভরযোগ্য করে তোলার অংশ হিসাবে, প্রশিক্ষণ সেট থেকে নির্দিষ্ট ব্যক্তিগত তথ্য এবং অন্যান্য সংবেদনশীল ডেটা ফিল্টার করার জন্য স্বয়ংক্রিয় কৌশল ব্যবহার করা হয়েছিল।
- অতিরিক্ত পদ্ধতি: আমাদের নীতিমালা অনুসারে কন্টেন্টের মান এবং নিরাপত্তার উপর ভিত্তি করে ফিল্টারিং।
বাস্তবায়ন তথ্য
মডেলের অভ্যন্তরীণ অংশ সম্পর্কে বিস্তারিত।
হার্ডওয়্যার
জেমাকে টেনসর প্রসেসিং ইউনিট (TPU) হার্ডওয়্যার (TPUv4p, TPUv5p এবং TPUv5e) ব্যবহার করে প্রশিক্ষণ দেওয়া হয়েছিল। ভিশন-ল্যাঙ্গুয়েজ মডেল (VLM) প্রশিক্ষণের জন্য উল্লেখযোগ্য গণনামূলক শক্তি প্রয়োজন। মেশিন লার্নিংয়ে সাধারণ ম্যাট্রিক্স অপারেশনের জন্য বিশেষভাবে ডিজাইন করা TPU গুলি এই ক্ষেত্রে বেশ কয়েকটি সুবিধা প্রদান করে:
- কর্মক্ষমতা: TPU গুলি বিশেষভাবে VLM প্রশিক্ষণের সাথে জড়িত বিশাল গণনা পরিচালনা করার জন্য ডিজাইন করা হয়েছে। CPU গুলির তুলনায় এগুলি প্রশিক্ষণের গতি উল্লেখযোগ্যভাবে বাড়িয়ে তুলতে পারে।
- মেমোরি: টিপিইউতে প্রায়শই প্রচুর পরিমাণে উচ্চ-ব্যান্ডউইথ মেমোরি থাকে, যা প্রশিক্ষণের সময় বড় মডেল এবং ব্যাচ আকার পরিচালনা করার সুযোগ দেয়। এর ফলে মডেলের মান আরও ভালো হতে পারে।
- স্কেলেবিলিটি: TPU পড (TPU-এর বৃহৎ ক্লাস্টার) বৃহৎ ফাউন্ডেশন মডেলের ক্রমবর্ধমান জটিলতা মোকাবেলার জন্য একটি স্কেলেবল সমাধান প্রদান করে। দ্রুত এবং আরও দক্ষ প্রক্রিয়াকরণের জন্য আপনি একাধিক TPU ডিভাইসে প্রশিক্ষণ বিতরণ করতে পারেন।
- খরচ-কার্যকারিতা: অনেক পরিস্থিতিতে, CPU-ভিত্তিক অবকাঠামোর তুলনায় বৃহৎ মডেলগুলিকে প্রশিক্ষণের জন্য TPUগুলি আরও সাশ্রয়ী সমাধান প্রদান করতে পারে, বিশেষ করে যখন দ্রুত প্রশিক্ষণের কারণে সময় এবং সম্পদ সাশ্রয় হয়।
- এই সুবিধাগুলি টেকসইভাবে পরিচালনার জন্য গুগলের প্রতিশ্রুতির সাথে সামঞ্জস্যপূর্ণ।
সফটওয়্যার
JAX এবং ML Pathways ব্যবহার করে প্রশিক্ষণ দেওয়া হয়েছিল। JAX গবেষকদের বৃহৎ মডেলগুলির দ্রুত এবং আরও দক্ষ প্রশিক্ষণের জন্য TPU সহ সর্বশেষ প্রজন্মের হার্ডওয়্যারের সুবিধা নিতে সাহায্য করে। ML Pathways হল Google-এর একাধিক কাজের জন্য কৃত্রিম বুদ্ধিমত্তা সম্পন্ন সিস্টেম তৈরির সর্বশেষ প্রচেষ্টা। এটি বিশেষভাবে ফাউন্ডেশন মডেলগুলির জন্য উপযুক্ত, যার মধ্যে এই ধরণের বৃহৎ ভাষা মডেলও অন্তর্ভুক্ত।
জেমিনি পরিবারের মডেল সম্পর্কে গবেষণাপত্রে বর্ণিত হিসাবে JAX এবং ML Pathways একসাথে ব্যবহার করা হয়েছে; "জ্যাক্স এবং পাথওয়েজের 'একক নিয়ন্ত্রক' প্রোগ্রামিং মডেল একটি একক পাইথন প্রক্রিয়াকে সমগ্র প্রশিক্ষণ পরিচালনা করতে দেয়, যা উন্নয়ন কর্মপ্রবাহকে নাটকীয়ভাবে সরল করে তোলে।"
মূল্যায়ন
মডেল মূল্যায়ন মেট্রিক্স এবং ফলাফল।
বেঞ্চমার্ক ফলাফল
| মানদণ্ড | এন-শট | ফাংশন জেমা ২৭০ মি |
|---|---|---|
| BFCL Simple সম্পর্কে | ০-শট | ৬১.৬ |
| বিএফসিএল সমান্তরাল | ০-শট | ৬৩.৫ |
| বিএফসিএল মাল্টিপল | ০-শট | ৩৯ |
| বিএফসিএল প্যারালাল মাল্টিপল | ০-শট | ২৯.৫ |
| BFCL Live Simple সম্পর্কে | ০-শট | ৩৬.২ |
| বিএফসিএল লাইভ প্যারালাল | ০-শট | ২৫.৭ |
| বিএফসিএল লাইভ মাল্টিপল | ০-শট | ২২.৯ |
| বিএফসিএল লাইভ প্যারালাল মাল্টিপল | ০-শট | ২০.৮ |
| বিএফসিএল প্রাসঙ্গিকতা | ০-শট | ৬১.১ |
| বিএফসিএল অপ্রাসঙ্গিকতা | ০-শট | ৭০.৬ |
মোবাইল অ্যাকশন ডেটাসেটে ফাইন-টিউনিংয়ের পরে কর্মক্ষমতার উপর প্রভাব
ছোট ভাষার মডেলগুলির জন্য বিশেষীকরণের মূল্য প্রদর্শনের জন্য, আমরা "মোবাইল অ্যাকশন" রেসিপি ব্যবহার করে বেস ফাংশনজেমা মডেলের সাথে ফাইন-টিউনড মডেলের তুলনা করেছি। ফাইন-টিউনিং বেস ফাংশনজেমা মডেলের মোবাইল সিস্টেম কলগুলি সঠিকভাবে সনাক্ত এবং ফর্ম্যাট করার ক্ষমতাকে উল্লেখযোগ্যভাবে উন্নত করেছে।
মডেল | মোবাইল অ্যাকশনের জন্য Eval ফলাফল |
|---|---|
বেস ফাংশন জেমা মডেল | ৫৮% |
মোবাইল অ্যাকশনস ফাইন-টিউন | ৮৫% |
জেমা ২৭০ মিটার ফাইন-টিউনড ইউজ কেসের অন-ডিভাইস পারফরম্যান্স
আমরা ডিভাইসের ল্যাটেন্সি এবং মেমোরি ফুটপ্রিন্ট মূল্যায়ন করার জন্য Samsung S25 Ultra-তে সূক্ষ্মভাবে সুরক্ষিত ব্যবহারের কেসগুলি মূল্যায়ন করেছি।
- প্রসঙ্গ: ৫১২টি প্রিফিল টোকেন এবং ৩২টি ডিকোড টোকেন।
- হার্ডওয়্যার: S25 Ultra CPU, LiterRT XNNPACK ডেলিগেট ব্যবহার করে 4টি থ্রেড সহ।
ডিভাইসের পারফরম্যান্সের উপর মোবাইল অ্যাকশন
ব্যাকএন্ড | পরিমাণ নির্ধারণের স্কিম | প্রসঙ্গ দৈর্ঘ্য | প্রিফিল (প্রতি সেকেন্ডে টোকেন) | ডিকোড (প্রতি সেকেন্ডে টোকেন) | টাইম-টু-ফার্স্ট-টোকেন (সেকেন্ড) | মডেলের আকার (এমবি) | সর্বোচ্চ RSS মেমোরি (MB) |
|---|---|---|---|---|---|---|---|
সিপিইউ | ডাইনামিক_ইন্ট৮ | ১০২৪ | ১৭১৮ | ১২৫.৯ | ০.৩ | ২৮৮ | ৫৫১ |
ডিভাইসের পারফরম্যান্সে ক্ষুদ্র উদ্যান
ব্যাকএন্ড | পরিমাণ নির্ধারণের স্কিম | প্রসঙ্গ দৈর্ঘ্য | প্রিফিল (প্রতি সেকেন্ডে টোকেন) | ডিকোড (প্রতি সেকেন্ডে টোকেন) | টাইম-টু-ফার্স্ট-টোকেন (সেকেন্ড) | মডেলের আকার (এমবি) | সর্বোচ্চ RSS মেমোরি (MB) |
|---|---|---|---|---|---|---|---|
সিপিইউ | ডাইনামিক_ইন্ট৮ | ১০২৪ | ১৭৪৩ | ১২৫.৭ | ০.৩ | ২৮৮ | ৫৪৯ |
নীতিশাস্ত্র এবং নিরাপত্তা
নীতিশাস্ত্র এবং নিরাপত্তা মূল্যায়ন পদ্ধতি এবং ফলাফল।
মূল্যায়ন পদ্ধতি
আমাদের মূল্যায়ন পদ্ধতির মধ্যে রয়েছে কাঠামোগত মূল্যায়ন এবং প্রাসঙ্গিক বিষয়বস্তু নীতির অভ্যন্তরীণ রেড-টিমিং পরীক্ষা। রেড-টিমিং বিভিন্ন দল দ্বারা পরিচালিত হয়েছিল, প্রতিটি দলের লক্ষ্য এবং মানব মূল্যায়নের মেট্রিক্স আলাদা ছিল। এই মডেলগুলি নীতিশাস্ত্র এবং সুরক্ষার সাথে প্রাসঙ্গিক বিভিন্ন বিভাগের বিপরীতে মূল্যায়ন করা হয়েছিল, যার মধ্যে রয়েছে:
- শিশু সুরক্ষা : টেক্সট-টু-টেক্সট এবং ইমেজ-টু-টেক্সট প্রম্পটের মূল্যায়ন শিশু সুরক্ষা নীতিগুলিকে অন্তর্ভুক্ত করে, যার মধ্যে শিশু যৌন নির্যাতন এবং শোষণ অন্তর্ভুক্ত।
- বিষয়বস্তুর নিরাপত্তা: টেক্সট-টু-টেক্সট এবং ইমেজ-টু-টেক্সট প্রম্পটের মূল্যায়নে নিরাপত্তা নীতিগুলি অন্তর্ভুক্ত থাকে, যার মধ্যে রয়েছে হয়রানি, সহিংসতা এবং রক্তপাত, এবং ঘৃণাত্মক বক্তব্য।
- প্রতিনিধিত্বমূলক ক্ষতি : টেক্সট-টু-টেক্সট এবং ইমেজ-টু-টেক্সট প্রম্পটের মূল্যায়নে পক্ষপাত, স্টেরিওটাইপিং এবং ক্ষতিকারক সম্পর্ক বা ভুলত্রুটি সহ নিরাপত্তা নীতিগুলি অন্তর্ভুক্ত থাকে।
মূল্যায়ন ফলাফল
নিরাপত্তা পরীক্ষার সকল ক্ষেত্রে, আমরা পূর্ববর্তী জেমা মডেলের তুলনায় শিশু সুরক্ষা, বিষয়বস্তুর সুরক্ষা এবং প্রতিনিধিত্বমূলক ক্ষতির বিভাগগুলিতে উল্লেখযোগ্য উন্নতি দেখেছি। মডেলের ক্ষমতা এবং আচরণ মূল্যায়নের জন্য সমস্ত পরীক্ষা নিরাপত্তা ফিল্টার ছাড়াই পরিচালিত হয়েছিল। মডেলটি ন্যূনতম নীতি লঙ্ঘন করেছে এবং ভিত্তিহীন অনুমানের ক্ষেত্রে পূর্ববর্তী জেমা মডেলগুলির কর্মক্ষমতার তুলনায় উল্লেখযোগ্য উন্নতি দেখিয়েছে। আমাদের মূল্যায়নের একটি সীমাবদ্ধতা ছিল যে তারা শুধুমাত্র ইংরেজি ভাষার প্রম্পট অন্তর্ভুক্ত করেছিল।
ব্যবহার এবং সীমাবদ্ধতা
এই মডেলগুলির কিছু সীমাবদ্ধতা রয়েছে যা ব্যবহারকারীদের সচেতন থাকা উচিত।
উদ্দেশ্যে ব্যবহার
এই মডেলটি সরাসরি সংলাপের মডেল হিসেবে ব্যবহারের উদ্দেশ্যে নয়।
ওপেন লার্জ ল্যাঙ্গুয়েজ মডেল (এলএলএম)-এর বিভিন্ন শিল্প এবং ক্ষেত্রে বিস্তৃত প্রয়োগ রয়েছে। সম্ভাব্য ব্যবহারের নিম্নলিখিত তালিকাটি সম্পূর্ণ নয়। এই তালিকার উদ্দেশ্য হল মডেল নির্মাতারা মডেল প্রশিক্ষণ এবং উন্নয়নের অংশ হিসাবে বিবেচনা করা সম্ভাব্য ব্যবহারের ক্ষেত্রে প্রাসঙ্গিক তথ্য প্রদান করা।
- কন্টেন্ট তৈরি এবং যোগাযোগ
- টেক্সট জেনারেশন: এই মডেলগুলি কবিতা, স্ক্রিপ্ট, কোড, মার্কেটিং কপি এবং ইমেল ড্রাফ্টের মতো সৃজনশীল টেক্সট ফর্ম্যাট তৈরি করতে ব্যবহার করা যেতে পারে।
- চ্যাটবট এবং কথোপকথনমূলক এআই: গ্রাহক পরিষেবা, ভার্চুয়াল সহকারী, অথবা ইন্টারেক্টিভ অ্যাপ্লিকেশনের জন্য শক্তিশালী কথোপকথনমূলক ইন্টারফেস।
- টেক্সট সারসংক্ষেপ: একটি টেক্সট কর্পাস, গবেষণাপত্র, বা প্রতিবেদনের সংক্ষিপ্ত সারসংক্ষেপ তৈরি করুন।
- গবেষণা এবং শিক্ষা
- প্রাকৃতিক ভাষা প্রক্রিয়াকরণ (NLP) গবেষণা: এই মডেলগুলি গবেষকদের NLP কৌশল নিয়ে পরীক্ষা-নিরীক্ষা, অ্যালগরিদম বিকাশ এবং ক্ষেত্রের অগ্রগতিতে অবদান রাখার জন্য একটি ভিত্তি হিসেবে কাজ করতে পারে।
- ভাষা শেখার সরঞ্জাম: ব্যাকরণ সংশোধনে সহায়তা করে বা লেখার অনুশীলন প্রদান করে ইন্টারেক্টিভ ভাষা শেখার অভিজ্ঞতাগুলিকে সমর্থন করে।
- জ্ঞান অন্বেষণ: সারাংশ তৈরি করে বা নির্দিষ্ট বিষয় সম্পর্কে প্রশ্নের উত্তর দিয়ে গবেষকদের বৃহৎ পাঠ্যাংশ অন্বেষণে সহায়তা করুন।
সীমাবদ্ধতা
- প্রশিক্ষণ তথ্য
- প্রশিক্ষণ তথ্যের গুণমান এবং বৈচিত্র্য মডেলের ক্ষমতাকে উল্লেখযোগ্যভাবে প্রভাবিত করে। প্রশিক্ষণ তথ্যের পক্ষপাত বা ফাঁক মডেলের প্রতিক্রিয়াগুলিতে সীমাবদ্ধতা সৃষ্টি করতে পারে।
- প্রশিক্ষণ ডেটাসেটের পরিধি নির্ধারণ করে যে মডেলটি কোন বিষয়গুলি কার্যকরভাবে পরিচালনা করতে পারে।
- প্রসঙ্গ এবং কার্য জটিলতা
- স্পষ্ট নির্দেশাবলী এবং নির্দেশাবলীর মাধ্যমে তৈরি করা যেতে পারে এমন কাজগুলিতে মডেলরা আরও ভাল। খোলামেলা বা অত্যন্ত জটিল কাজগুলি চ্যালেঞ্জিং হতে পারে।
- একটি মডেলের কর্মক্ষমতা প্রদত্ত প্রেক্ষাপটের পরিমাণ দ্বারা প্রভাবিত হতে পারে (দীর্ঘ প্রেক্ষাপট সাধারণত একটি নির্দিষ্ট বিন্দু পর্যন্ত ভাল আউটপুট দেয়)।
- ভাষার অস্পষ্টতা এবং সূক্ষ্মতা
- স্বাভাবিক ভাষা সহজাতভাবেই জটিল। মডেলদের সূক্ষ্ম সূক্ষ্মতা, ব্যঙ্গাত্মক কথা, অথবা রূপক ভাষা বুঝতে সমস্যা হতে পারে।
- বাস্তবিক নির্ভুলতা
- মডেলগুলি তাদের প্রশিক্ষণ ডেটাসেট থেকে শেখা তথ্যের উপর ভিত্তি করে প্রতিক্রিয়া তৈরি করে, কিন্তু এগুলি জ্ঞানের ভিত্তি নয়। তারা ভুল বা পুরানো তথ্যগত বিবৃতি তৈরি করতে পারে।
- সাধারণ জ্ঞান
- মডেলরা ভাষার পরিসংখ্যানগত ধরণগুলির উপর নির্ভর করে। কিছু পরিস্থিতিতে সাধারণ জ্ঞানের যুক্তি প্রয়োগ করার ক্ষমতা তাদের নাও থাকতে পারে।
নীতিগত বিবেচনা এবং ঝুঁকি
বৃহৎ ভাষা মডেল (LLM) তৈরির ফলে বেশ কিছু নৈতিক উদ্বেগ দেখা দেয়। একটি উন্মুক্ত মডেল তৈরি করার সময়, আমরা নিম্নলিখিত বিষয়গুলি সাবধানতার সাথে বিবেচনা করেছি:
- পক্ষপাত এবং ন্যায্যতা
- বৃহৎ পরিসরে, বাস্তব-বিশ্বের টেক্সট ডেটার উপর প্রশিক্ষিত এলএলএমরা প্রশিক্ষণ উপাদানে এমবেড করা সামাজিক-সাংস্কৃতিক পক্ষপাত প্রতিফলিত করতে পারে। এই মডেলগুলি সাবধানে যাচাই-বাছাই, বর্ণিত ইনপুট ডেটা প্রাক-প্রক্রিয়াকরণ এবং এই কার্ডে রিপোর্ট করা পরবর্তী মূল্যায়নের মধ্য দিয়ে গেছে।
- ভুল তথ্য এবং অপব্যবহার
- মিথ্যা, বিভ্রান্তিকর, বা ক্ষতিকারক লেখা তৈরি করতে LLM-এর অপব্যবহার করা যেতে পারে।
- মডেলটির সাথে দায়িত্বশীল ব্যবহারের জন্য নির্দেশিকা প্রদান করা হয়েছে, রেসপন্সিবল জেনারেটিভ এআই টুলকিট দেখুন।
- স্বচ্ছতা এবং জবাবদিহিতা:
- এই মডেল কার্ডটিতে মডেলগুলির স্থাপত্য, ক্ষমতা, সীমাবদ্ধতা এবং মূল্যায়ন প্রক্রিয়া সম্পর্কে বিস্তারিত তথ্য সংক্ষেপে বর্ণনা করা হয়েছে।
- একটি দায়িত্বশীলভাবে বিকশিত উন্মুক্ত মডেল AI ইকোসিস্টেম জুড়ে ডেভেলপার এবং গবেষকদের কাছে LLM প্রযুক্তি অ্যাক্সেসযোগ্য করে উদ্ভাবন ভাগ করে নেওয়ার সুযোগ প্রদান করে।
ঝুঁকি চিহ্নিত এবং প্রশমন:
- পক্ষপাতের ধারাবাহিকতা: মডেল প্রশিক্ষণ, সূক্ষ্ম-সুরকরণ এবং অন্যান্য ব্যবহারের ক্ষেত্রে ক্রমাগত পর্যবেক্ষণ (মূল্যায়ন মেট্রিক্স, মানব পর্যালোচনা ব্যবহার করে) এবং পক্ষপাতমুক্তকরণ কৌশলগুলির অন্বেষণ করতে উৎসাহিত করা হয়।
- ক্ষতিকারক কন্টেন্ট তৈরি: কন্টেন্ট সুরক্ষার জন্য প্রক্রিয়া এবং নির্দেশিকা অপরিহার্য। ডেভেলপারদের তাদের নির্দিষ্ট পণ্য নীতি এবং প্রয়োগ ব্যবহারের ক্ষেত্রের উপর ভিত্তি করে সতর্কতা অবলম্বন করতে এবং উপযুক্ত কন্টেন্ট সুরক্ষা সুরক্ষা ব্যবস্থা বাস্তবায়ন করতে উৎসাহিত করা হচ্ছে।
- ক্ষতিকারক উদ্দেশ্যে অপব্যবহার: প্রযুক্তিগত সীমাবদ্ধতা এবং ডেভেলপার এবং শেষ-ব্যবহারকারী শিক্ষা LLM-এর ক্ষতিকারক প্রয়োগের বিরুদ্ধে প্রশমনে সাহায্য করতে পারে। ব্যবহারকারীদের অপব্যবহার চিহ্নিত করার জন্য শিক্ষামূলক সংস্থান এবং রিপোর্টিং পদ্ধতি প্রদান করা হয়েছে। জেমা মডেলের নিষিদ্ধ ব্যবহারগুলি জেমা নিষিদ্ধ ব্যবহার নীতিতে বর্ণিত হয়েছে।
- গোপনীয়তা লঙ্ঘন: মডেলদের PII (ব্যক্তিগতভাবে সনাক্তকরণযোগ্য তথ্য) অপসারণের জন্য ফিল্টার করা ডেটা সম্পর্কে প্রশিক্ষণ দেওয়া হয়েছিল। ডেভেলপারদের গোপনীয়তা-সংরক্ষণ কৌশল সহ গোপনীয়তা নিয়ম মেনে চলতে উৎসাহিত করা হচ্ছে।
সুবিধা
প্রকাশের সময়, মডেলগুলির এই পরিবারটি একই আকারের মডেলগুলির তুলনায় দায়িত্বশীল এআই বিকাশের জন্য প্রাথমিকভাবে ডিজাইন করা উচ্চ-কার্যক্ষমতাসম্পন্ন ওপেন লার্জ ল্যাঙ্গুয়েজ মডেল বাস্তবায়ন সরবরাহ করে।