Bộ công cụ AI tạo sinh có trách nhiệm
Các công cụ và hướng dẫn để thiết kế, xây dựng và đánh giá các mô hình AI mở một cách có trách nhiệm.
Thiết kế ứng dụng có trách nhiệm
Xác định các quy tắc cho hành vi của mô hình, tạo ra một ứng dụng an toàn và có trách nhiệm, đồng thời duy trì giao tiếp minh bạch với người dùng.
Căn chỉnh an toàn
Khám phá các kỹ thuật gỡ lỗi câu lệnh và hướng dẫn về tinh chỉnh cũng như RLHF để điều chỉnh mô hình AI cho phù hợp với chính sách an toàn.
Đánh giá mô hình
Tìm hướng dẫn và dữ liệu để tiến hành việc đánh giá mô hình mạnh mẽ về tính an toàn, công bằng và tính xác thực bằng Trình so sánh LLM.
Biện pháp bảo vệ
Triển khai thuật toán phân loại an toàn bằng các giải pháp có sẵn hoặc tự xây dựng thuật toán theo hướng dẫn từng bước.
Thiết kế một phương pháp tiếp cận có trách nhiệm
Chủ động xác định những rủi ro tiềm ẩn trong ứng dụng của bạn và xác định phương pháp tiếp cận ở cấp hệ thống để xây dựng ứng dụng an toàn và có trách nhiệm cho người dùng.
Bắt đầu
Xác định chính sách cấp hệ thống
Xác định loại nội dung mà ứng dụng của bạn nên và không nên tạo.
Thiết kế để đảm bảo an toàn
Xác định phương pháp tiếp cận tổng thể để triển khai các kỹ thuật giảm thiểu rủi ro, có cân nhắc sự đánh đổi về mặt kỹ thuật và kinh doanh.
Minh bạch
Truyền đạt cách tiếp cận của bạn thông qua các cấu phần phần mềm như thẻ mô hình.
Hệ thống AI bảo mật
Cân nhắc các rủi ro bảo mật và phương pháp khắc phục liên quan đến AI được nêu bật trong Khung AI bảo mật (SAIF).
Căn chỉnh mô hình
Căn chỉnh mô hình của bạn cho phù hợp với các chính sách an toàn cụ thể bằng kỹ thuật nhắc và điều chỉnh.
Bắt đầu
Tìm hiểu câu lệnh của mô hình
Xây dựng các câu lệnh an toàn và hữu ích thông qua việc cải tiến lặp đi lặp lại bằng Công cụ diễn giải học tập (LIT).
Điều chỉnh mô hình để đảm bảo an toàn
Kiểm soát hành vi của mô hình bằng cách điều chỉnh mô hình cho phù hợp với các chính sách về an toàn và nội dung của bạn.
Đánh giá mô hình
Đánh giá rủi ro của mô hình về tính an toàn, sự công bằng và độ chính xác của thông tin thực tế thông qua hướng dẫn và công cụ của chúng tôi.
Bắt đầu
Trình so sánh LLM
Tiến hành đánh giá song song bằng Trình so sánh LLM để đánh giá định tính sự khác biệt về câu trả lời giữa các mô hình, các câu lệnh khác nhau cho cùng một mô hình hoặc thậm chí là các cách điều chỉnh khác nhau của một mô hình
Nguyên tắc đánh giá mô hình
Tìm hiểu các phương pháp hay nhất khi áp dụng phương pháp nhóm đỏ và đánh giá mô hình của bạn dựa trên điểm chuẩn học thuật để đánh giá tác hại liên quan đến tính an toàn, sự công bằng và tính thực tế.
Bảo vệ bằng các biện pháp bảo vệ
Lọc dữ liệu đầu vào và đầu ra của ứng dụng, đồng thời bảo vệ người dùng khỏi kết quả không mong muốn.
Bắt đầu
ShieldGemma
Một loạt bộ phân loại an toàn nội dung, được xây dựng trên Gemma 2, có ba kích thước: 2B, 9B, 27B.
Thuật toán phân loại linh hoạt
Tạo các thuật toán phân loại sự an toàn cho các chính sách cụ thể của bạn bằng tính năng tinh chỉnh hiệu quả tham số (PET) mà không cần dữ liệu huấn luyện tương đối ít
Dịch vụ kiểm duyệt văn bản
Phát hiện danh sách thuộc tính an toàn, bao gồm nhiều danh mục và chủ đề có khả năng gây hại có thể được coi là nhạy cảm nhờ API ngôn ngữ tự nhiên của Google Cloud được cung cấp miễn phí dưới một giới hạn sử dụng nhất định.
API phối cảnh
Xác định nội dung "độc hại" nhận xét bằng Google Jigsaw API miễn phí này nhằm giảm thiểu sự độc hại trên mạng và đảm bảo cuộc trò chuyện lành mạnh.