Bộ công cụ AI tạo sinh có trách nhiệm
Các công cụ và hướng dẫn để thiết kế, xây dựng và đánh giá các mô hình AI mở một cách có trách nhiệm.
Thiết kế ứng dụng có trách nhiệm
Xác định quy tắc cho hành vi của mô hình, tạo một ứng dụng an toàn và có trách nhiệm, đồng thời duy trì hoạt động giao tiếp minh bạch với người dùng.
Căn chỉnh an toàn
Khám phá các kỹ thuật gỡ lỗi câu lệnh và hướng dẫn về tinh chỉnh cũng như RLHF để điều chỉnh mô hình AI cho phù hợp với chính sách an toàn.
Đánh giá mô hình
Tìm hướng dẫn và dữ liệu để tiến hành đánh giá mô hình một cách toàn diện về độ an toàn, tính công bằng và tính thực tế bằng Trình so sánh LLM.
Biện pháp bảo vệ
Triển khai các thuật toán phân loại an toàn bằng các giải pháp có sẵn hoặc tạo thuật toán phân loại an toàn của riêng bạn theo hướng dẫn từng bước.
Thiết kế một phương pháp tiếp cận có trách nhiệm
Chủ động xác định các rủi ro tiềm ẩn của ứng dụng và xác định phương pháp cấp hệ thống để xây dựng các ứng dụng an toàn và có trách nhiệm cho người dùng.
Bắt đầu
Xác định chính sách ở cấp hệ thống
Xác định loại nội dung mà ứng dụng của bạn nên và không nên tạo.
Thiết kế để đảm bảo an toàn
Xác định phương pháp tiếp cận tổng thể để triển khai các kỹ thuật giảm thiểu rủi ro, có cân nhắc sự đánh đổi về mặt kỹ thuật và kinh doanh.
Minh bạch
Truyền đạt cách tiếp cận của bạn thông qua các cấu phần phần mềm như thẻ mô hình.
Bảo mật hệ thống AI
Cân nhắc các rủi ro bảo mật và phương pháp khắc phục liên quan đến AI được nêu bật trong Khung AI bảo mật (SAIF).
Căn chỉnh mô hình
Căn chỉnh mô hình của bạn cho phù hợp với các chính sách an toàn cụ thể bằng kỹ thuật nhắc và điều chỉnh.
Bắt đầu
Tạo lời nhắc an toàn và mạnh mẽ hơn
Sử dụng sức mạnh của LLM để tạo các mẫu câu lệnh an toàn hơn bằng thư viện Model Alignment (Căn chỉnh mô hình).
Điều chỉnh mô hình để đảm bảo an toàn
Kiểm soát hành vi của mô hình bằng cách điều chỉnh mô hình cho phù hợp với các chính sách về an toàn và nội dung của bạn.
Tìm hiểu về câu lệnh của mô hình
Xây dựng các câu lệnh an toàn và hữu ích thông qua việc cải tiến lặp đi lặp lại bằng Công cụ diễn giải học tập (LIT).
Đánh giá mô hình
Đánh giá rủi ro của mô hình về sự an toàn, tính công bằng và tính chính xác về mặt thực tế bằng cách sử dụng hướng dẫn và công cụ của chúng tôi.
Bắt đầu
Trình so sánh LLM
Tiến hành đánh giá song song bằng Trình so sánh LLM để đánh giá định tính sự khác biệt về phản hồi giữa các mô hình, các câu lệnh khác nhau cho cùng một mô hình hoặc thậm chí là các cách điều chỉnh khác nhau của một mô hình
Nguyên tắc đánh giá mô hình
Tìm hiểu các phương pháp hay nhất khi áp dụng phương pháp nhóm đỏ và đánh giá mô hình của bạn dựa trên điểm chuẩn học thuật để đánh giá tác hại liên quan đến tính an toàn, sự công bằng và tính thực tế.
Bảo vệ bằng các biện pháp bảo vệ
Lọc dữ liệu đầu vào và đầu ra của ứng dụng, đồng thời bảo vệ người dùng khỏi các kết quả không mong muốn.
Bắt đầu
Văn bản SynthID
Một công cụ tạo hình mờ và phát hiện văn bản do mô hình của bạn tạo ra.
ShieldGemma
Một loạt thuật toán phân loại mức độ an toàn của nội dung, được xây dựng trên Gemma 2, có 3 kích thước: 2B, 9B, 27B.
Thuật toán phân loại linh hoạt
Tạo các thuật toán phân loại sự an toàn cho các chính sách cụ thể của bạn bằng tính năng tinh chỉnh hiệu quả tham số (PET) mà không cần dữ liệu huấn luyện tương đối ít
Kiểm tra mức độ an toàn của AI
Đảm bảo tuân thủ các chính sách nội dung về an toàn AI bằng API và trang tổng quan giám sát.
Dịch vụ kiểm duyệt văn bản
Phát hiện danh sách thuộc tính an toàn, bao gồm nhiều danh mục và chủ đề có khả năng gây hại có thể được coi là nhạy cảm với API ngôn ngữ tự nhiên của Google Cloud được cung cấp miễn phí này dưới một hạn mức sử dụng nhất định.
API phối cảnh
Xác định bình luận "độc hại" bằng API Google Jigsaw miễn phí này để giảm thiểu sự độc hại trên mạng và đảm bảo cuộc trò chuyện lành mạnh.