Pengklasifikasi Agile: Pengklasifikasi kebijakan konten yang disesuaikan
Pengklasifikasi cerdas adalah metode yang efisien dan fleksibel
untuk membuat pengklasifikasi kebijakan konten kustom dengan menyesuaikan model, seperti Gemma,
agar sesuai dengan kebutuhan Anda. Iklan ini juga memberi Anda kontrol penuh atas tempat dan cara
pen-deployment-nya.
Codelab dan
tutorial menggunakan LoRA untuk meningkatkan kualitas model Gemma
agar berfungsi sebagai pengklasifikasi kebijakan konten menggunakan library
KerasNLP. Dengan hanya menggunakan 200 contoh dari set data ETHOS,
pengklasifikasi mendapatkan skor F1 sebesar 0,80 dan skor ROC-AUC
sebesar 0,78, yang lebih baik dibandingkan dengan
hasil papan peringkat. Saat dilatih dengan 800 contoh,
seperti pengklasifikasi lain di papan peringkat, pengklasifikasi tangkas berbasis Gemma
mencapai skor F1 83,74 dan skor ROC-AUC 88,17. Anda dapat menyesuaikan
petunjuk tutorial untuk lebih meningkatkan kualitas pengklasifikasi ini, atau membuat pengamanan pengklasifikasi keamanan kustom Anda sendiri.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2024-10-23 UTC."],[],[],null,["# Agile Classifiers: Customized content policy classifiers\n\n\u003cbr /\u003e\n\n[Agile classifiers](https://arxiv.org/pdf/2302.06541.pdf) is an efficient and flexible method\nfor creating custom content policy classifiers by tuning models, such as Gemma,\nto fit your needs. They also allow you complete control over where and how they\nare deployed.\n\n**Gemma Agile Classifier Tutorials**\n\n|---|---------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/agile-classifiers) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/agile_classifiers.ipynb) |\n\n\u003cbr /\u003e\n\nThe [codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/agile-classifiers) and\n[tutorial](/gemma/docs/agile_classifiers) use [LoRA](https://arxiv.org/abs/2106.09685) to fine-tune a Gemma\nmodel to act as a content policy classifier using the [KerasNLP](https://keras.io/keras_nlp/)\nlibrary. Using only 200 examples from the [ETHOS dataset](https://paperswithcode.com/dataset/ethos), this\nclassifier achieves an [F1 score](https://en.wikipedia.org/wiki/F-score) of 0.80 and [ROC-AUC score](https://developers.google.com/machine-learning/crash-course/classification/roc-and-auc#AUC)\nof 0.78, which compares favorably to state of the art\n[leaderboard results](https://paperswithcode.com/sota/hate-speech-detection-on-ethos-binary). When trained on the 800 examples,\nlike the other classifiers on the leaderboard, the Gemma-based agile classifier\nachieves an F1 score of 83.74 and a ROC-AUC score of 88.17. You can adapt the\ntutorial instructions to further refine this classifier, or to create your own\ncustom safety classifier safeguards."]]