Znajdziesz w nim zasoby, z których dowiesz się, jak stosować sprawdzone metody odpowiedzialnego korzystania z modeli otwartych, takich jak modele Gemma, w tym:
- Wskazówki dotyczące konfigurowania zasad bezpieczeństwa, dostrajania zabezpieczeń, klasyfikatorów zabezpieczeń i oceny modeli.
- Narzędzie do interpretacji treści (Learning Interpretability Tool), które służy do badania zachowań Gemmy i rozwiązywania potencjalnych problemów.
- Metodologia tworzenia niezawodnych klasyfikatorów zabezpieczeń z minimalną liczbą przykładów.
Ta wersja pakietu narzędzi dotyczy wyłącznie modeli zamiany tekstu na tekst w języku angielskim. Aby zwiększyć przydatność tego narzędzia, możesz przesłać opinię, korzystając z linku do mechanizmu przesyłania opinii u dołu strony.
Podczas tworzenia rozwiązań z pomocą Gemma należy podejść do kwestii holistycznej odpowiedzialności i wziąć pod uwagę wszystkie możliwe wyzwania na poziomie aplikacji i modelu. Ten pakiet narzędzi obejmuje techniki ograniczania ryzyka i ograniczania ryzyka z myślą o bezpieczeństwie, prywatności, uczciwości i odpowiedzialności.
Aby uzyskać więcej informacji i wskazówek, zapoznaj się z pozostałymi zestawami narzędzi:
- Ocenianie ryzyka i ustawianie zasad bezpieczeństwa
- Dostrój modele z myślą o bezpieczeństwie
- Utwórz środki ochrony danych wejściowych i wyjściowych
- Ocenianie modelu i systemu pod kątem bezpieczeństwa
- Tworzenie artefaktów przejrzystości
- Analizowanie zachowania modelu
Autorzy i współtwórcy
Ten pakiet narzędzi powstał na podstawie badań i narzędzi przygotowanych przez różne zespoły w Google, w tym przez tych autorów i współtwórców:
Ludovic Peran, Kathy Meier-Hellstern, Lucas Dixon, Reena Jana, Oscar Wahltinez, Clément Crepy, Ryan Mullins, Ian Tenney, Ted Klimenko, Shree Pandya, Nithum Thain, Mackenzie Thomas, Hayden Schaffer, El Park Du