เครื่องมือ Generative AI อย่างมีความรับผิดชอบ
เครื่องมือและคำแนะนำในการออกแบบ สร้าง และประเมินโมเดล AI แบบเปิดอย่างมีความรับผิดชอบ
การออกแบบแอปพลิเคชันอย่างมีความรับผิดชอบ
กําหนดกฎสําหรับลักษณะการทํางานของโมเดล สร้างแอปพลิเคชันที่ปลอดภัยและมีความรับผิดชอบ และสื่อสารกับผู้ใช้อย่างโปร่งใส
การปรับแนวความปลอดภัย
ดูเทคนิคการแก้ไขข้อบกพร่องแบบพรอมต์และคำแนะนำในการปรับแต่งและ RLHF เพื่อปรับโมเดล AI ให้สอดคล้องกับนโยบายด้านความปลอดภัย
การประเมินโมเดล
ดูคําแนะนําและข้อมูลเพื่อประเมินโมเดลอย่างมีประสิทธิภาพเพื่อความปลอดภัย ความยุติธรรม และความเป็นข้อเท็จจริงด้วยเครื่องมือเปรียบเทียบ LLM
การป้องกัน
ติดตั้งใช้งานตัวจัดประเภทความปลอดภัยโดยใช้โซลูชันสำเร็จรูปหรือสร้างโซลูชันของคุณเองด้วยบทแนะนำแบบทีละขั้นตอน
ออกแบบแนวทางที่รับผิดชอบ
ระบุความเสี่ยงที่อาจเกิดขึ้นของแอปพลิเคชันอย่างสม่ำเสมอ และกำหนดแนวทางระดับระบบเพื่อสร้างแอปพลิเคชันที่ปลอดภัยและมีความรับผิดชอบสำหรับผู้ใช้
เริ่มต้นใช้งาน
กำหนดนโยบายระดับระบบ
พิจารณาว่าแอปพลิเคชันควรสร้างเนื้อหาประเภทใดและไม่ควรสร้างเนื้อหาประเภทใด
ออกแบบมาเพื่อความปลอดภัย
กําหนดแนวทางโดยรวมในการใช้เทคนิคการลดความเสี่ยง โดยพิจารณาถึงข้อดีข้อเสียทางเทคนิคและทางธุรกิจ
มีความโปร่งใส
สื่อสารแนวทางของคุณด้วยอาร์ติแฟกต์ เช่น การ์ดรูปแบบ
ระบบ AI ที่ปลอดภัย
พิจารณาความเสี่ยงด้านความปลอดภัยเฉพาะ AI และวิธีการแก้ไขที่ไฮไลต์ไว้ในเฟรมเวิร์ก AI ที่ปลอดภัย (SAIF)
จัดแนวโมเดล
ปรับรูปแบบให้สอดคล้องกับนโยบายด้านความปลอดภัยที่เฉพาะเจาะจงโดยใช้เทคนิคการแจ้งเตือนและการปรับเปลี่ยน
เริ่มต้นใช้งาน
สร้างพรอมต์ที่ปลอดภัยและมีประสิทธิภาพมากขึ้น
ใช้ความสามารถของ LLM เพื่อช่วยสร้างเทมเพลตพรอมต์ที่ปลอดภัยยิ่งขึ้นด้วยคลังการปรับแนวโมเดล
ปรับแต่งโมเดลเพื่อความปลอดภัย
ควบคุมลักษณะการทํางานของโมเดลโดยการปรับโมเดลให้สอดคล้องกับนโยบายด้านความปลอดภัยและเนื้อหา
ตรวจสอบพรอมต์ของโมเดล
สร้างพรอมต์ที่ปลอดภัยและมีประโยชน์ผ่านการปรับปรุงซ้ำๆ ด้วยเครื่องมือการตีความการเรียนรู้ (LIT)
ประเมินรูปแบบการระบุแหล่งที่มา
ประเมินความเสี่ยงของโมเดลในด้านความปลอดภัย ความยุติธรรม และความถูกต้องของข้อเท็จจริงโดยใช้คําแนะนําและเครื่องมือของเรา
เริ่มต้นใช้งาน
ตัวเปรียบเทียบ LLM
ประเมินแบบเปรียบเทียบกันด้วยเครื่องมือเปรียบเทียบ LLM เพื่อประเมินความแตกต่างของคำตอบระหว่างโมเดลต่างๆ พรอมต์ที่แตกต่างกันสำหรับโมเดลเดียวกัน หรือแม้แต่การปรับแต่งที่แตกต่างกันของโมเดล
หลักเกณฑ์การประเมินโมเดล
ดูข้อมูลเกี่ยวกับแนวทางปฏิบัติแนะนำในการจำลองฝ่ายตรงข้ามและประเมินโมเดลของคุณเทียบกับเกณฑ์ทางวิชาการเพื่อประเมินอันตรายเกี่ยวกับความปลอดภัย ความยุติธรรม และความเป็นข้อเท็จจริง
ปกป้องด้วยมาตรการป้องกัน
กรองอินพุตและเอาต์พุตของแอปพลิเคชัน และปกป้องผู้ใช้จากผลลัพธ์ที่ไม่พึงประสงค์
เริ่มต้นใช้งาน
ข้อความ SynthID
เครื่องมือสำหรับการใส่ลายน้ำและตรวจหาข้อความที่โมเดลสร้างขึ้น
ShieldGemma
ชุดตัวแยกประเภทความปลอดภัยของเนื้อหาที่สร้างจาก Gemma 2 มี 3 ขนาด ได้แก่ 2B, 9B และ 27B
ตัวแยกประเภทแบบ Agile
สร้างตัวแยกประเภทความปลอดภัยสำหรับนโยบายที่เฉพาะเจาะจงโดยใช้การปรับแต่งพารามิเตอร์ที่มีประสิทธิภาพ (PET) ด้วยข้อมูลการฝึกอบรมเพียงเล็กน้อย
ตรวจสอบความปลอดภัยของ AI
ตรวจสอบการปฏิบัติตามข้อกำหนดด้านความปลอดภัยของ AI กับนโยบายเนื้อหาด้วย API และหน้าแดชบอร์ดการตรวจสอบ
บริการกลั่นกรองข้อความ
ตรวจหารายการแอตทริบิวต์ด้านความปลอดภัย ซึ่งรวมถึงหมวดหมู่และหัวข้อต่างๆ ที่อาจเป็นอันตรายและอาจถือว่ามีความละเอียดอ่อนด้วย Google Cloud Natural Language API นี้ ซึ่งใช้งานได้ฟรีภายใต้ขีดจำกัดการใช้งานที่กำหนด
Perspective API
ระบุความคิดเห็นที่ "ไม่เหมาะสม" ด้วย Google Jigsaw API ฟรีนี้เพื่อลดเนื้อหาเชิงลบในโลกออนไลน์และช่วยให้การสนทนาเป็นไปอย่างเหมาะสม