ชุดเครื่องมือ Generative AI ที่มีความรับผิดชอบ
เครื่องมือและคำแนะนำในการออกแบบ สร้าง และประเมินโมเดล AI แบบเปิดอย่างมีความรับผิดชอบ
การออกแบบแอปพลิเคชันอย่างมีความรับผิดชอบ
กําหนดกฎสําหรับลักษณะการทํางานของโมเดล สร้างแอปพลิเคชันที่ปลอดภัยและมีความรับผิดชอบ และรักษาการสื่อสารที่โปร่งใสกับผู้ใช้
การตรวจสอบความสอดคล้องด้านความปลอดภัย
สำรวจเทคนิคการแก้ไขข้อบกพร่องในทันทีและคำแนะนำสำหรับการปรับแต่งและ RLHF เพื่อปรับโมเดล AI ให้สอดคล้องกับนโยบายความปลอดภัย
การประเมินโมเดล
ดูคําแนะนําและข้อมูลเพื่อประเมินโมเดลอย่างมีประสิทธิภาพเพื่อความปลอดภัย ความยุติธรรม และความเป็นข้อเท็จจริงด้วยเครื่องมือเปรียบเทียบ LLM
การป้องกัน
ใช้ตัวแยกประเภทเพื่อความปลอดภัย โดยใช้โซลูชันที่มีให้เลือก หรือสร้างตัวแยกประเภทของคุณเองด้วยบทแนะนำแบบทีละขั้นตอน
ออกแบบแนวทางที่รับผิดชอบ
ระบุความเสี่ยงที่อาจเกิดขึ้นของแอปพลิเคชันอย่างสม่ำเสมอ และกำหนดแนวทางระดับระบบเพื่อสร้างแอปพลิเคชันที่ปลอดภัยและมีความรับผิดชอบสำหรับผู้ใช้
เริ่มต้นใช้งาน
กำหนดนโยบายระดับระบบ
พิจารณาว่าแอปพลิเคชันควรสร้างเนื้อหาประเภทใดและไม่ควรสร้างเนื้อหาประเภทใด
ออกแบบมาเพื่อความปลอดภัย
กําหนดแนวทางโดยรวมในการใช้เทคนิคการลดความเสี่ยง โดยพิจารณาถึงข้อดีข้อเสียทางเทคนิคและทางธุรกิจ
มีความโปร่งใส
สื่อสารแนวทางของคุณด้วยอาร์ติแฟกต์ เช่น การ์ดรูปแบบ
ระบบ AI ที่ปลอดภัย
พิจารณาความเสี่ยงด้านความปลอดภัยเฉพาะของ AI และวิธีการแก้ไขที่ไฮไลต์ไว้ในเฟรมเวิร์ก AI ที่ปลอดภัย (SAIF)
จัดโมเดลของคุณ
ปรับรูปแบบให้สอดคล้องกับนโยบายด้านความปลอดภัยที่เฉพาะเจาะจงโดยใช้เทคนิคการแจ้งเตือนและการปรับแต่ง
เริ่มต้นใช้งาน
สร้างพรอมต์ที่ปลอดภัยและมีประสิทธิภาพมากขึ้น
ใช้ความสามารถของ LLM เพื่อช่วยสร้างเทมเพลตพรอมต์ที่ปลอดภัยยิ่งขึ้นด้วยคลังการปรับแนวโมเดล
ปรับแต่งโมเดลเพื่อความปลอดภัย
ควบคุมลักษณะการทํางานของโมเดลโดยการปรับโมเดลให้สอดคล้องกับนโยบายด้านความปลอดภัยและเนื้อหา
ตรวจสอบพรอมต์ของโมเดล
สร้างพรอมต์ที่ปลอดภัยและมีประโยชน์ผ่านการปรับปรุงซ้ำๆ ด้วยเครื่องมือการตีความการเรียนรู้ (LIT)
ประเมินโมเดล
ประเมินความเสี่ยงของโมเดลในด้านความปลอดภัย ความยุติธรรม และความถูกต้องของข้อเท็จจริงโดยใช้คําแนะนําและเครื่องมือของเรา
เริ่มต้นใช้งาน
ตัวเปรียบเทียบ LLM
ประเมินแบบเปรียบเทียบกันด้วยเครื่องมือเปรียบเทียบ LLM เพื่อประเมินความแตกต่างของคำตอบระหว่างโมเดลต่างๆ พรอมต์ที่แตกต่างกันสำหรับโมเดลเดียวกัน หรือแม้แต่การปรับแต่งที่แตกต่างกันของโมเดล
หลักเกณฑ์การประเมินโมเดล
ดูข้อมูลเกี่ยวกับแนวทางปฏิบัติแนะนำในการจำลองฝ่ายตรงข้ามและประเมินโมเดลของคุณเทียบกับเกณฑ์ทางวิชาการเพื่อประเมินอันตรายเกี่ยวกับความปลอดภัย ความยุติธรรม และความเป็นข้อเท็จจริง
ปกป้องด้วยมาตรการป้องกัน
กรองอินพุตและเอาต์พุตของแอปพลิเคชัน และปกป้องผู้ใช้จากผลลัพธ์ที่ไม่พึงประสงค์
เริ่มต้นใช้งาน
ข้อความ SynthID
เครื่องมือสำหรับใส่ลายน้ำและตรวจหาข้อความที่โมเดลสร้างขึ้น
ShieldGemma
ชุดตัวแยกประเภทความปลอดภัยของเนื้อหาที่สร้างขึ้นจาก Gemma 2 มี 3 ขนาด ได้แก่ 2B, 9B, 27B
ตัวแยกประเภทแบบ Agile
สร้างตัวแยกประเภทความปลอดภัยสำหรับนโยบายที่เฉพาะเจาะจงโดยใช้การปรับแต่งพารามิเตอร์ที่มีประสิทธิภาพ (PET) ด้วยข้อมูลการฝึกอบรมเพียงเล็กน้อย
ตรวจสอบความปลอดภัยของ AI
ตรวจสอบการปฏิบัติตามข้อกำหนดด้านความปลอดภัยของ AI กับนโยบายเนื้อหาด้วย API และหน้าแดชบอร์ดการตรวจสอบ
บริการดูแลข้อความ
ตรวจหารายการแอตทริบิวต์ด้านความปลอดภัย ซึ่งรวมถึงหมวดหมู่และหัวข้อต่างๆ ที่อาจเป็นอันตรายและอาจถือว่ามีความละเอียดอ่อนด้วย Google Cloud Natural Language API นี้ ซึ่งใช้งานได้ฟรีภายใต้ขีดจำกัดการใช้งานที่กำหนด
API ของ Perspective
ระบุความคิดเห็นที่ "หยาบคาย" ด้วย Google Jigsaw API ฟรีนี้เพื่อลดการแสดงความคิดเห็นเชิงลบและทำให้การสนทนาดำเนินไปอย่างสร้างสรรค์