Zestaw narzędzi do odpowiedzialnej generatywnej AI

Znajdziesz w nim zasoby, z których dowiesz się, jak stosować sprawdzone metody odpowiedzialnego korzystania z modeli otwartych, takich jak modele Gemma, w tym:

  • Wskazówki dotyczące konfigurowania zasad bezpieczeństwa, dostrajania zabezpieczeń, klasyfikatorów zabezpieczeń i oceny modeli.
  • Narzędzie do interpretacji treści (Learning Interpretability Tool), które służy do badania zachowań Gemmy i rozwiązywania potencjalnych problemów.
  • Metodologia tworzenia niezawodnych klasyfikatorów zabezpieczeń z minimalną liczbą przykładów.

Ta wersja pakietu narzędzi dotyczy wyłącznie modeli zamiany tekstu na tekst w języku angielskim. Aby zwiększyć przydatność tego narzędzia, możesz przesłać opinię, korzystając z linku do mechanizmu przesyłania opinii u dołu strony.

Podczas tworzenia rozwiązań z pomocą Gemma należy podejść do kwestii holistycznej odpowiedzialności i wziąć pod uwagę wszystkie możliwe wyzwania na poziomie aplikacji i modelu. Ten pakiet narzędzi obejmuje techniki ograniczania ryzyka i ograniczania ryzyka z myślą o bezpieczeństwie, prywatności, uczciwości i odpowiedzialności.

Schemat funkcjonalny praktyk z zakresu odpowiedzialnej AI

Aby uzyskać więcej informacji i wskazówek, zapoznaj się z pozostałymi zestawami narzędzi:

Autorzy i współtwórcy

Ten pakiet narzędzi powstał na podstawie badań i narzędzi przygotowanych przez różne zespoły w Google, w tym przez tych autorów i współtwórców:

Ludovic Peran, Kathy Meier-Hellstern, Lucas Dixon, Reena Jana, Oscar Wahltinez, Clément Crepy, Ryan Mullins, Ian Tenney, Ted Klimenko, Shree Pandya, Nithum Thain, Mackenzie Thomas, Hayden Schaffer, El Park Du