Bộ công cụ AI tạo sinh có trách nhiệm
Các công cụ và hướng dẫn để thiết kế, xây dựng và đánh giá các mô hình AI mở một cách có trách nhiệm.
Thiết kế ứng dụng có trách nhiệm
Xác định quy tắc cho hành vi của mô hình, tạo một ứng dụng an toàn và có trách nhiệm, đồng thời duy trì hoạt động giao tiếp minh bạch với người dùng.
Căn chỉnh an toàn
Khám phá các kỹ thuật gỡ lỗi nhanh và hướng dẫn để tinh chỉnh cũng như RLHF nhằm điều chỉnh các mô hình AI cho phù hợp với chính sách an toàn.
Đánh giá mô hình
Tìm hướng dẫn và dữ liệu để tiến hành đánh giá mô hình một cách toàn diện về độ an toàn, tính công bằng và tính thực tế bằng Trình so sánh LLM.
Biện pháp bảo vệ
Triển khai các thuật toán phân loại an toàn bằng các giải pháp có sẵn hoặc tạo thuật toán phân loại an toàn của riêng bạn theo hướng dẫn từng bước.
Thiết kế phương pháp có trách nhiệm
Chủ động xác định các rủi ro tiềm ẩn của ứng dụng và xác định phương pháp cấp hệ thống để xây dựng các ứng dụng an toàn và có trách nhiệm cho người dùng.
Bắt đầu
Xác định chính sách ở cấp hệ thống
Xác định loại nội dung mà ứng dụng của bạn nên và không nên tạo.
Thiết kế để đảm bảo an toàn
Xác định phương pháp tổng thể để triển khai các kỹ thuật giảm thiểu rủi ro, cân nhắc các yếu tố đánh đổi về kỹ thuật và kinh doanh.
Minh bạch
Truyền đạt phương pháp của bạn bằng các cấu phần phần mềm như thẻ mô hình.
Bảo mật hệ thống AI
Cân nhắc các rủi ro bảo mật và phương pháp khắc phục dành riêng cho AI được nêu trong Khung AI bảo mật (SAIF).
Căn chỉnh mô hình
Điều chỉnh mô hình của bạn cho phù hợp với các chính sách an toàn cụ thể bằng cách sử dụng các kỹ thuật nhắc và điều chỉnh.
Bắt đầu
Tạo lời nhắc an toàn và mạnh mẽ hơn
Sử dụng sức mạnh của LLM để tạo các mẫu câu lệnh an toàn hơn bằng thư viện Model Alignment (Căn chỉnh mô hình).
Điều chỉnh mô hình để đảm bảo an toàn
Kiểm soát hành vi của mô hình bằng cách điều chỉnh mô hình cho phù hợp với chính sách về nội dung và an toàn.
Tìm hiểu về câu lệnh của mô hình
Xây dựng các câu lệnh an toàn và hữu ích thông qua việc cải tiến lặp lại bằng Công cụ diễn giải học tập (LIT).
Đánh giá mô hình
Đánh giá rủi ro của mô hình về sự an toàn, tính công bằng và tính chính xác về mặt thực tế bằng cách sử dụng hướng dẫn và công cụ của chúng tôi.
Bắt đầu
Trình so sánh LLM
Tiến hành đánh giá song song bằng Trình so sánh LLM để đánh giá định tính sự khác biệt về phản hồi giữa các mô hình, các câu lệnh khác nhau cho cùng một mô hình hoặc thậm chí là các cách điều chỉnh khác nhau của một mô hình
Nguyên tắc đánh giá mô hình
Tìm hiểu các phương pháp hay nhất về nhóm đối thủ và đánh giá mô hình của bạn dựa trên các điểm chuẩn học thuật để đánh giá tác hại về sự an toàn, tính công bằng và tính xác thực.
Bảo vệ bằng các biện pháp bảo vệ
Lọc dữ liệu đầu vào và đầu ra của ứng dụng, đồng thời bảo vệ người dùng khỏi các kết quả không mong muốn.
Bắt đầu
Văn bản SynthID
Một công cụ tạo hình mờ và phát hiện văn bản do mô hình của bạn tạo.
ShieldGemma
Một loạt thuật toán phân loại mức độ an toàn của nội dung, được xây dựng trên Gemma 2, có 3 kích thước: 2B, 9B, 27B.
Thuật toán phân loại linh hoạt
Tạo bộ phân loại an toàn cho các chính sách cụ thể của bạn bằng cách sử dụng tính năng điều chỉnh thông số hiệu quả (PET) với dữ liệu huấn luyện tương đối ít
Kiểm tra An toàn AI
Đảm bảo tuân thủ các chính sách về nội dung của bạn đối với AI bằng API và trang tổng quan giám sát.
Dịch vụ kiểm duyệt văn bản
Phát hiện danh sách các thuộc tính an toàn, bao gồm nhiều danh mục và chủ đề có thể gây hại và có thể được coi là nhạy cảm bằng API Ngôn ngữ tự nhiên của Google Cloud này. API này được cung cấp miễn phí dưới một giới hạn sử dụng nhất định.
API phối cảnh
Xác định bình luận "độc hại" bằng API Google Jigsaw miễn phí này để giảm thiểu sự độc hại trên mạng và đảm bảo cuộc trò chuyện lành mạnh.