Zestaw narzędzi do odpowiedzialnej generatywnej AI
Narzędzia i wskazówki ułatwiające projektowanie, tworzenie i ocenę otwartych modeli AI.
Odpowiedzialne projektowanie aplikacji
Zdefiniuj reguły działania modelu, utwórz bezpieczną i rozliczaną aplikację oraz utrzymuj przejrzystość komunikacji z użytkownikami.
Dopasowanie bezpieczeństwa
Poznaj techniki debugowania z promptami oraz wskazówki dotyczące dostrajania i RLHF, które pozwalają dostosować modele AI do zasad bezpieczeństwa.
Ocena modelu
Znajdź wskazówki i dane, które pomogą Ci przeprowadzić rzetelną ocenę modelu pod kątem bezpieczeństwa, uczciwości i prawdziwości za pomocą narzędzia do porównywania LLM.
Środki ochrony
Wdrażaj klasyfikatory zabezpieczeń, korzystając z gotowych rozwiązań, lub twórz własne dzięki szczegółowym samouczkom.
Opracuj odpowiedzialne podejście
Proaktywnie wykrywaj potencjalne zagrożenia związane z aplikacją i zdefiniuj podejście na poziomie systemu, aby tworzyć bezpieczne i odpowiedzialne aplikacje dla użytkowników.
Rozpocznij
Zdefiniuj zasady na poziomie systemu
Określ rodzaj treści, które powinna generować aplikacja.
Projektowanie z myślą o bezpieczeństwie
Określ ogólne podejście do wdrażania technik ograniczania ryzyka z uwzględnieniem kompromisów technicznych i biznesowych.
Postaw na szczerość
Przekaż swoje podejście za pomocą artefaktów, takich jak karty modeli.
Bezpieczne systemy AI
Weź pod uwagę zagrożenia dla bezpieczeństwa związane z AI i metody działań naprawczych omówione w ramach Secure AI Framework (SAIF).
Dopasowywanie modelu
Dopasuj model do konkretnych zasad bezpieczeństwa przy użyciu technik dostrajania i wyświetlania promptów.
Rozpocznij
Badanie promptów modelu
Twórz bezpieczne i pomocne prompty dzięki iteracyjnym ulepszeniom za pomocą narzędzia Learning Interpretability Tool (LIT).
Dostrajanie modeli pod kątem bezpieczeństwa
Kontroluj zachowanie modelu, dopasowując go do zasad bezpieczeństwa i treści.
Ocenianie modelu
Oceniaj zagrożenia związane z bezpieczeństwem, uczciwością i dokładnością faktów, korzystając z naszych wskazówek i narzędzi.
Rozpocznij
Komparator LLM
Przeprowadź bezpośrednie oceny za pomocą komparatora LLM, aby ocenić jakościowo różnice w odpowiedziach między modelami, różne prompty dla tego samego modelu, a nawet różne dostrajanie modelu
Wytyczne dotyczące oceny modelu
Poznaj sprawdzone metody dotyczące pracy zespołu Red Team i oceń swój model względem akademickich analiz porównawczych, aby ocenić zagrożenia związane z bezpieczeństwem, uczciwością i prawdziwością.
Ochrona za pomocą środków ochrony
Filtruj dane wejściowe i wyjściowe aplikacji oraz chroń użytkowników przed niepożądanymi efektami.
Rozpocznij
ShieldGemma
Seria klasyfikatorów bezpieczeństwa treści opartych na Gemmie 2, dostępnych w 3 rozmiarach: 2B, 9B, 27B.
Klasyfikatory elastyczne
Utwórz klasyfikatory bezpieczeństwa dla konkretnych zasad za pomocą dostrajania z wykorzystaniem efektywnych parametrów (PET) ze stosunkowo małą ilością danych treningowych
Usługa moderowania tekstu
Wykrywa listę atrybutów bezpieczeństwa, w tym różne potencjalnie szkodliwe kategorie i tematy, które mogą zostać uznane za kontrowersyjne, dzięki bezpłatnemu interfejsowi Google Cloud Natural Language API dostępnemu bezpłatnie poniżej określonego limitu wykorzystania.
Perspective API
Określ „toksyczny” ten bezpłatny interfejs API pozwala ograniczyć toksyczne zachowania w internecie i zapewnić zdrowy dialog.