Zestaw narzędzi odpowiedzialnej generatywnej AI
Narzędzia i wskazówki do projektowania, tworzenia i oceny otwartych modeli AI w odpowiedzialny sposób.
Odpowiedzialny projekt aplikacji
Określ zasady działania modelu, stwórz bezpieczną i odpowiedzialną aplikację oraz utrzymuj przejrzystą komunikację z użytkownikami.
Dopasowanie do bezpieczeństwa
Poznaj techniki debugowania promptów i wskazówki dotyczące dostrojenia i RLHF, aby dostosować modele AI do zasad bezpieczeństwa.
Ocena modelu
Znajdź wskazówki i dane, które pomogą Ci przeprowadzić dokładną ocenę modelu pod kątem bezpieczeństwa, rzetelności i rzetelności danych za pomocą narzędzia LLM Comparator.
Środki ochrony
Wdróż klasyfikatory bezpieczeństwa, korzystając z gotowych rozwiązań lub tworząc własne za pomocą samouczków krok po kroku.
Odpowiedzialne podejście do projektowania
Proaktywnie identyfikuj potencjalne zagrożenia związane z aplikacją i określaj podejście na poziomie systemu, aby tworzyć bezpieczne i odpowiedzialne aplikacje dla użytkowników.
Rozpocznij
Definiowanie zasad na poziomie systemu
Określ, jakiego typu treści powinna, a jakiego nie powinna generować aplikacja.
Projektowanie z myślą o bezpieczeństwie
Określ ogólne podejście do wdrażania technik ograniczania ryzyka, biorąc pod uwagę kompromisy techniczne i biznesowe.
Postaw na szczerość
Komunikowanie podejścia za pomocą artefaktów, takich jak karty modeli.
Bezpieczne systemy AI
Weź pod uwagę zagrożenia związane z bezpieczeństwem i metody ich usuwania, które są opisane w ramach Secure AI Framework (SAIF).
Wyrównaj model
Dopasuj model do określonych zasad bezpieczeństwa, korzystając z technik promptów i dostrajania.
Rozpocznij
Tworzenie bezpieczniejszych i bardziej niezawodnych promptów
Korzystaj z potencjału modeli LLM, aby tworzyć bezpieczniejsze prompty za pomocą biblioteki Model Alignment.
Dostosowywanie modeli pod kątem bezpieczeństwa
Kontrolowanie zachowania modelu przez dostosowanie go do zasad bezpieczeństwa i zawartości.
Sprawdzanie promptów modelu
Tworzenie bezpiecznych i przydatnych promptów dzięki stopniowemu ulepszaniu za pomocą narzędzia do analizowania interpretowalności (LIT).
Ocenianie modelu
Oceniaj ryzyko związane z modelem pod kątem bezpieczeństwa, sprawiedliwości i poprawności merytorycznej, korzystając z naszych wskazówek i narzędzi.
Rozpocznij
Komparator LLM
przeprowadzać bezpośrednie porównania za pomocą narzędzia LLM Comparator, aby jakościowo ocenić różnice w odpowiedziach między modelami, różnych promptach dla tego samego modelu lub nawet różnych ustawieniach tego samego modelu;
Wytyczne dotyczące oceny modelu
Poznaj sprawdzone metody red-teamingu i oceń swój model na tle akademickich benchmarków, aby ocenić szkody związane z bezpieczeństwem, uczciwością i rzeczywistością.
Ochrona za pomocą zabezpieczeń
Filtrowanie danych wejściowych i wyjściowych aplikacji oraz ochrona użytkowników przed niepożądanymi wynikami.
Rozpocznij
Tekst SynthID
Narzędzie do dodawania znaków wodnych i wykrywania tekstu wygenerowanego przez model.
ShieldGemma
Seria klasyfikatorów bezpieczeństwa treści opartych na Gemma 2, dostępnych w 3 rozmiarach: 2B, 9B i 27B.
Klasyfikatory elastyczne
Tworzenie klasyfikatorów bezpieczeństwa dla określonych zasad za pomocą wydajnego dostrajania parametrów (PET) przy użyciu stosunkowo niewielkiej ilości danych szkoleniowych.
Bezpieczeństwo AI
Za pomocą interfejsów API i paneli monitorowania możesz zapewnić zgodność AI z zasadami bezpieczeństwa treści.
Usługa moderacji tekstu
Wykrywanie listy atrybutów bezpieczeństwa, w tym różnych potencjalnie szkodliwych kategorii i tematów, które można uznać za wrażliwe, za pomocą interfejsu Natural Language API w Google Cloud dostępnego bezpłatnie w ramach określonego limitu użycia.
Perspective API
Identyfikuj „toksyczne” komentarze za pomocą bezpłatnego interfejsu Google Jigsaw API, aby ograniczyć toksyczność w internecie i zapewnić przestrzeń do prowadzenia zdrowych rozmów.