Bộ công cụ AI tạo sinh có trách nhiệm

Bộ công cụ này cung cấp tài nguyên giúp áp dụng các phương pháp hay nhất về việc sử dụng mô hình mở một cách có trách nhiệm, chẳng hạn như mô hình Gemma, bao gồm:

  • Hướng dẫn về cách thiết lập chính sách an toàn, điều chỉnh mức độ an toàn, thuật toán phân loại độ an toàn và đánh giá mô hình.
  • Công cụ diễn giải học tập (LIT) để điều tra hành vi của Gemma và giải quyết các vấn đề tiềm ẩn.
  • Phương pháp xây dựng các thuật toán phân loại độ an toàn hiệu quả bằng ít ví dụ nhất.

Phiên bản này của bộ công cụ này chỉ tập trung vào các mô hình chuyển văn bản thành văn bản bằng tiếng Anh. Bạn có thể đưa ra ý kiến phản hồi để bộ công cụ này trở nên hữu ích hơn thông qua đường liên kết đến cơ chế phản hồi ở cuối trang.

Khi xây dựng bằng Gemma, bạn nên áp dụng một phương pháp tiếp cận toàn diện để thực hiện trách nhiệm và xem xét mọi thách thức có thể xảy ra ở cấp ứng dụng và mô hình. Bộ công cụ này đề cập đến các kỹ thuật giảm thiểu rủi ro và giảm thiểu để giải quyết vấn đề an toàn, quyền riêng tư, công bằng và trách nhiệm giải trình.

Sơ đồ chức năng của các phương pháp phát triển AI có trách nhiệm

Hãy xem phần còn lại của bộ công cụ này để biết thêm thông tin và hướng dẫn:

Tác giả và người đóng góp

Bộ công cụ này được xây dựng dựa trên nghiên cứu và công cụ của nhiều nhóm tại Google, bao gồm cả các tác giả và người đóng góp sau:

Ludovic Peran, Kathy Meier-Hellstern, Lucas Dixon, Reena Jana, Oscar Wahltinez, Clément Crepy, Ryan Mullins, Ian Tenney, Ted Klimenko, Shree Pandya, Nithum Thain, Mackenzie Thomas, Hayden Schaffer, Bin Du, Madeleine El-Saynes