Zestaw narzędzi do odpowiedzialnej generatywnej AI
Narzędzia i wskazówki do odpowiedzialnego projektowania, tworzenia i oceny otwartych modeli AI.
Odpowiedzialny projekt aplikacji
Określ zasady działania modelu, stwórz bezpieczną i odpowiedzialną aplikację oraz utrzymuj przejrzystą komunikację z użytkownikami.
Dopasowanie do bezpieczeństwa
Poznaj techniki debugowania z promptami oraz wskazówki dotyczące dostrajania i RLHF, które pozwalają dostosować modele AI do zasad bezpieczeństwa.
Ocena modelu
Znajdź wskazówki i dane, które pomogą Ci przeprowadzić dokładną ocenę modelu pod kątem bezpieczeństwa, rzetelności i rzeczywistości za pomocą narzędzia LLM Comparator.
Środki ochrony
Wdróż klasyfikatory bezpieczeństwa, korzystając z gotowych rozwiązań lub tworząc własne za pomocą samouczków krok po kroku.
Odpowiedzialne podejście do projektowania
Proaktywnie wykrywaj potencjalne zagrożenia związane z aplikacją i zdefiniuj podejście na poziomie systemu, aby tworzyć bezpieczne i odpowiedzialne aplikacje dla użytkowników.
Rozpocznij
Definiowanie zasad na poziomie systemu
Określ, jakiego typu treści powinna generować aplikacja, a jakich nie.
Projektowanie z myślą o bezpieczeństwie
Określ ogólne podejście do wdrażania technik ograniczania ryzyka z uwzględnieniem kompromisów technicznych i biznesowych.
Postaw na szczerość
Komunikowanie podejścia za pomocą artefaktów, takich jak karty modeli.
Bezpieczne systemy AI
Weź pod uwagę zagrożenia dla bezpieczeństwa związane z AI i metody działań naprawczych omówione w ramach Secure AI Framework (SAIF).
Wyrównaj model
Dopasuj model do konkretnych zasad bezpieczeństwa przy użyciu technik dostrajania i wyświetlania promptów.
Rozpocznij
Tworzenie bezpieczniejszych i bardziej niezawodnych promptów
Korzystaj z potencjału modeli LLM, aby tworzyć bezpieczniejsze prompty za pomocą biblioteki Model Alignment.
Dostrajanie modeli pod kątem bezpieczeństwa
Możesz kontrolować zachowanie modelu, dostrajając go tak, aby był zgodny z zasadami bezpieczeństwa i zasadami dotyczącymi treści.
Badanie promptów modelu
Tworzenie bezpiecznych i użytecznych promptów dzięki stopniowemu ulepszaniu za pomocą narzędzia do analizowania interpretowalności (LIT).
Ocenianie modelu
Oceniaj ryzyko związane z modelem pod kątem bezpieczeństwa, sprawiedliwości i poprawności merytorycznej, korzystając z naszych wskazówek i narzędzi.
Rozpocznij
Komparator LLM
Przeprowadź bezpośrednie oceny za pomocą komparatora LLM, aby ocenić jakościowo różnice w odpowiedziach między modelami, różne prompty dla tego samego modelu, a nawet różne dostrajanie modelu
Wytyczne dotyczące oceny modelu
Poznaj sprawdzone metody red teamingu i ocenę modelu na podstawie akademickich punktów odniesienia, aby ocenić szkody związane z bezpieczeństwem, uczciwością i rzeczywistością.
Zabezpieczenia
Filtruj dane wejściowe i wyjściowe aplikacji oraz chroń użytkowników przed niepożądanymi efektami.
Rozpocznij
Tekst SynthID
Narzędzie do dodawania znaków wodnych i wykrywania tekstu wygenerowanego przez model.
ShieldGemma
Seria klasyfikatorów bezpieczeństwa treści opartych na Gemma 2, dostępnych w 3 rozmiarach: 2B, 9B i 27B.
Klasyfikatory elastyczne
Tworzenie klasyfikatorów bezpieczeństwa dla określonych zasad za pomocą wydajnego dostrajania parametrów (PET) przy użyciu stosunkowo niewielkiej ilości danych szkoleniowych.
Bezpieczeństwo AI
Zadbaj o zgodność AI z zasadami bezpieczeństwa za pomocą interfejsów API i paneli monitorowania.
Usługa moderowania tekstu
Wykrywanie listy atrybutów bezpieczeństwa, w tym różnych potencjalnie szkodliwych kategorii i tematów, które można uznać za wrażliwe, za pomocą interfejsu Natural Language API w Google Cloud dostępnego bezpłatnie w ramach określonego limitu użycia.
Perspective API
Identyfikuj „toksyczne” komentarze za pomocą bezpłatnego interfejsu Google Jigsaw API, aby ograniczyć toksyczność w internecie i zapewnić przestrzeń do prowadzenia zdrowych rozmów.