एजाइल क्लासिफ़ायर: पसंद के मुताबिक बनाए गए कॉन्टेंट से जुड़ी नीति की कैटगरी तय करने वाले ऐप्लिकेशन
एजाइल क्लासिफ़ायर एक कारगर और सुविधाजनक तरीका है
ट्यूनिंग मॉडल, जैसे कि Gemma,
आपकी ज़रूरतों को पूरा करता है. इनसे आपको यह कंट्रोल करने की सुविधा भी मिलती है कि वे कहां और कैसे
तैनात किए जाते हैं.
codelab और
जेमा को बेहतर बनाने के लिए, LoRA का ट्यूटोरियल इस्तेमाल करें
मॉडल, KerasNLP का इस्तेमाल करके कॉन्टेंट की नीति की कैटगरी तय करने वाले टूल के तौर पर काम करेगा
लाइब्रेरी. ETHOS डेटासेट से सिर्फ़ 200 उदाहरणों का इस्तेमाल करके, यह
क्लासिफ़ायर को 0.80 F1 स्कोर और ROC-AUC स्कोर मिलता है
0.78 प्रतिशत है, जो कला की आधुनिक स्थिति से तुलना करती है
लीडरबोर्ड के नतीजे. जब 800 उदाहरणों के आधार पर ट्रेनिंग दी जाती है,
लीडरबोर्ड में दी गई अन्य कैटगरी की तरह, जेमा पर आधारित एजाइल क्लासिफ़ायर उपलब्ध है
83.74 का F1 स्कोर और 88.17 का ROC-AUC स्कोर हासिल करता है. आपके पास
इस क्लासिफ़ायर को और बेहतर बनाने या अपने हिसाब से बनाने के लिए ट्यूटोरियल निर्देश
कस्टम सुरक्षा कैटगरी तय करने की सुविधा.
[[["समझने में आसान है","easyToUnderstand","thumb-up"],["मेरी समस्या हल हो गई","solvedMyProblem","thumb-up"],["अन्य","otherUp","thumb-up"]],[["वह जानकारी मौजूद नहीं है जो मुझे चाहिए","missingTheInformationINeed","thumb-down"],["बहुत मुश्किल है / बहुत सारे चरण हैं","tooComplicatedTooManySteps","thumb-down"],["पुराना","outOfDate","thumb-down"],["अनुवाद से जुड़ी समस्या","translationIssue","thumb-down"],["सैंपल / कोड से जुड़ी समस्या","samplesCodeIssue","thumb-down"],["अन्य","otherDown","thumb-down"]],["आखिरी बार 2024-10-23 (UTC) को अपडेट किया गया."],[],[],null,["# Agile Classifiers: Customized content policy classifiers\n\n\u003cbr /\u003e\n\n[Agile classifiers](https://arxiv.org/pdf/2302.06541.pdf) is an efficient and flexible method\nfor creating custom content policy classifiers by tuning models, such as Gemma,\nto fit your needs. They also allow you complete control over where and how they\nare deployed.\n\n**Gemma Agile Classifier Tutorials**\n\n|---|---------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/agile-classifiers) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/agile_classifiers.ipynb) |\n\n\u003cbr /\u003e\n\nThe [codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/agile-classifiers) and\n[tutorial](/gemma/docs/agile_classifiers) use [LoRA](https://arxiv.org/abs/2106.09685) to fine-tune a Gemma\nmodel to act as a content policy classifier using the [KerasNLP](https://keras.io/keras_nlp/)\nlibrary. Using only 200 examples from the [ETHOS dataset](https://paperswithcode.com/dataset/ethos), this\nclassifier achieves an [F1 score](https://en.wikipedia.org/wiki/F-score) of 0.80 and [ROC-AUC score](https://developers.google.com/machine-learning/crash-course/classification/roc-and-auc#AUC)\nof 0.78, which compares favorably to state of the art\n[leaderboard results](https://paperswithcode.com/sota/hate-speech-detection-on-ethos-binary). When trained on the 800 examples,\nlike the other classifiers on the leaderboard, the Gemma-based agile classifier\nachieves an F1 score of 83.74 and a ROC-AUC score of 88.17. You can adapt the\ntutorial instructions to further refine this classifier, or to create your own\ncustom safety classifier safeguards."]]