Zestaw narzędzi odpowiedzialnej generatywnej AI
Narzędzia i wskazówki ułatwiające projektowanie, tworzenie i ocenę otwartych modeli AI.
Odpowiedzialne projektowanie aplikacji
Zdefiniuj reguły działania modelu, utwórz bezpieczną i rozliczaną aplikację oraz utrzymuj przejrzystość komunikacji z użytkownikami.
Dopasowanie do bezpieczeństwa
Poznaj techniki debugowania promptów i wskazówki dotyczące dostrojenia i RLHF, aby dostosować modele AI do zasad bezpieczeństwa.
Ocena modelu
Znajdź wskazówki i dane, które pomogą Ci przeprowadzić rzetelną ocenę modelu pod kątem bezpieczeństwa, uczciwości i prawdziwości za pomocą narzędzia do porównywania LLM.
Środki ochrony
Wdróż klasyfikatory bezpieczeństwa, korzystając z gotowych rozwiązań lub tworząc własne za pomocą samouczków krok po kroku.
Odpowiedzialne podejście do projektowania
Proaktywnie identyfikuj potencjalne zagrożenia związane z aplikacją i określaj podejście na poziomie systemu, aby tworzyć bezpieczne i odpowiedzialne aplikacje dla użytkowników.
Rozpocznij
Definiowanie zasad na poziomie systemu
Określ, jakiego typu treści powinna, a jakiego nie powinna generować aplikacja.
Projektowanie z myślą o bezpieczeństwie
Określ ogólne podejście do wdrażania technik ograniczania ryzyka, biorąc pod uwagę kompromisy techniczne i biznesowe.
Postaw na szczerość
Komunikowanie podejścia za pomocą artefaktów, takich jak karty modeli.
Bezpieczne systemy AI
Weź pod uwagę zagrożenia związane z bezpieczeństwem i metody ich usuwania, które są opisane w ramach Secure AI Framework (SAIF).
Wyrównaj model
Dopasuj model do określonych zasad bezpieczeństwa, korzystając z technik promptów i dostrajania.
Rozpocznij
Tworzenie bezpieczniejszych i bardziej niezawodnych promptów
Wykorzystaj możliwości modeli LLM do tworzenia bezpieczniejszych szablonów promptów za pomocą biblioteki wyrównania modelu.
Dostosowywanie modeli pod kątem bezpieczeństwa
Możesz kontrolować zachowanie modelu, dostrajając go tak, aby był zgodny z zasadami bezpieczeństwa i zasadami dotyczącymi treści.
Sprawdzanie promptów modelu
Twórz bezpieczne i pomocne prompty dzięki iteracyjnym ulepszeniom za pomocą narzędzia Learning Interpretability Tool (LIT).
Ocenianie modelu
Oceniaj ryzyko związane z modelem pod kątem bezpieczeństwa, sprawiedliwości i poprawności merytorycznej, korzystając z naszych wskazówek i narzędzi.
Rozpocznij
Komparator LLM
Przeprowadzanie porównań za pomocą narzędzia LLM Comparator w celu jakościowej oceny różnic w odpowiedziach między modelami, różnych promptach dla tego samego modelu czy nawet różnych ustawieniach tego samego modelu.
Wytyczne dotyczące oceny modelu
Poznaj sprawdzone metody red teamingu i ocenę modelu na podstawie akademickich punktów odniesienia, aby ocenić szkody związane z bezpieczeństwem, uczciwością i rzeczywistością.
Ochrona za pomocą zabezpieczeń
Filtruj dane wejściowe i wyjściowe aplikacji oraz chroń użytkowników przed niepożądanymi efektami.
Rozpocznij
Tekst SynthID
Narzędzie do dodawania znaku wodnego i wykrywania tekstu wygenerowanego przez model.
ShieldGemma
Seria klasyfikatorów bezpieczeństwa treści opartych na Gemma 2, dostępnych w 3 rozmiarach: 2B, 9B i 27B.
Klasyfikatory elastyczne
Tworzenie klasyfikatorów bezpieczeństwa dla określonych zasad za pomocą wydajnego dostrajania parametrów (PET) przy użyciu stosunkowo niewielkiej ilości danych szkoleniowych.
Sprawdza bezpieczeństwo AI
Zadbaj o zgodność AI z polityką treści dzięki interfejsom API i panelom informacyjnym.
Usługa moderacji tekstu
Wykrywa listę atrybutów bezpieczeństwa, w tym różne potencjalnie szkodliwe kategorie i tematy, które mogą zostać uznane za kontrowersyjne, dzięki bezpłatnemu interfejsowi Google Cloud Natural Language API dostępnemu bezpłatnie poniżej określonego limitu wykorzystania.
Perspective API
Określ „toksyczny” ten bezpłatny interfejs API pozwala ograniczyć toksyczne zachowania w internecie i zapewnić zdrowy dialog.