Classificatori agili: classificatori delle norme relative ai contenuti personalizzati
I classificatori agili sono un metodo efficiente e flessibile
per creare classificatori personalizzati
dei criteri dei contenuti mediante l'ottimizzazione di modelli come Gemma,
per soddisfare le tue esigenze. Ti consentono inoltre di avere il controllo completo su dove e come vengono eseguiti.
Il codelab e
tutorial: usa LoRA per mettere a punto un Gemma
che funga da classificatore delle norme relative ai contenuti utilizzando KerasNLP
libreria. Utilizzando solo 200 esempi del set di dati ETHOS, questo
classificatore raggiunge un punteggio F1 di 0,80 e un punteggio ROC-AUC
di 0,78, un risultato migliore rispetto ai risultati della classifica di oggi. Se addestrato sulla base di 800 esempi,
come gli altri classificatori in classifica, il classificatore agile basato su Gemma
raggiunge un punteggio F1 di 83,74 e un punteggio ROC-AUC di 88,17. Puoi adattare le istruzioni del
tutorial per perfezionare ulteriormente questo classificatore o per creare le tue
misure di salvaguardia personalizzate per i classificatori di sicurezza.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2024-10-23 UTC."],[],[],null,["# Agile Classifiers: Customized content policy classifiers\n\n\u003cbr /\u003e\n\n[Agile classifiers](https://arxiv.org/pdf/2302.06541.pdf) is an efficient and flexible method\nfor creating custom content policy classifiers by tuning models, such as Gemma,\nto fit your needs. They also allow you complete control over where and how they\nare deployed.\n\n**Gemma Agile Classifier Tutorials**\n\n|---|---------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/agile-classifiers) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/agile_classifiers.ipynb) |\n\n\u003cbr /\u003e\n\nThe [codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/agile-classifiers) and\n[tutorial](/gemma/docs/agile_classifiers) use [LoRA](https://arxiv.org/abs/2106.09685) to fine-tune a Gemma\nmodel to act as a content policy classifier using the [KerasNLP](https://keras.io/keras_nlp/)\nlibrary. Using only 200 examples from the [ETHOS dataset](https://paperswithcode.com/dataset/ethos), this\nclassifier achieves an [F1 score](https://en.wikipedia.org/wiki/F-score) of 0.80 and [ROC-AUC score](https://developers.google.com/machine-learning/crash-course/classification/roc-and-auc#AUC)\nof 0.78, which compares favorably to state of the art\n[leaderboard results](https://paperswithcode.com/sota/hate-speech-detection-on-ethos-binary). When trained on the 800 examples,\nlike the other classifiers on the leaderboard, the Gemma-based agile classifier\nachieves an F1 score of 83.74 and a ROC-AUC score of 88.17. You can adapt the\ntutorial instructions to further refine this classifier, or to create your own\ncustom safety classifier safeguards."]]