ชุดเครื่องมือ Generative AI ที่มีความรับผิดชอบ
เครื่องมือและคำแนะนำในการออกแบบ สร้าง และประเมินโมเดล AI แบบเปิดอย่างมีความรับผิดชอบ
การออกแบบแอปพลิเคชันอย่างมีความรับผิดชอบ
กำหนดกฎสำหรับลักษณะการทำงานของโมเดล สร้างแอปพลิเคชันที่ปลอดภัยและรับผิดชอบ และรักษาการสื่อสารที่โปร่งใสกับผู้ใช้
การตรวจสอบความสอดคล้องด้านความปลอดภัย
สำรวจเทคนิคการแก้ไขข้อบกพร่องในทันทีและคำแนะนำสำหรับการปรับแต่งและ RLHF เพื่อปรับโมเดล AI ให้สอดคล้องกับนโยบายความปลอดภัย
การประเมินโมเดล
ค้นหาคำแนะนำและข้อมูลเพื่อทำการประเมินโมเดลที่มีประสิทธิภาพเพื่อความปลอดภัย เป็นธรรม และข้อเท็จจริงด้วยเครื่องเปรียบเทียบ LLM
การป้องกัน
ใช้ตัวแยกประเภทเพื่อความปลอดภัย โดยใช้โซลูชันที่มีให้เลือก หรือสร้างตัวแยกประเภทของคุณเองด้วยบทแนะนำแบบทีละขั้นตอน
ออกแบบแนวทางอย่างมีความรับผิดชอบ
ระบุความเสี่ยงที่อาจเกิดขึ้นกับแอปพลิเคชันของคุณแบบเชิงรุก และกำหนดแนวทางระดับระบบเพื่อสร้างแอปพลิเคชันที่ปลอดภัยและมีความรับผิดชอบสำหรับผู้ใช้
เริ่มต้นใช้งาน
กำหนดนโยบายระดับระบบ
พิจารณาว่าแอปพลิเคชันของคุณควรและไม่ควรสร้างประเภทเนื้อหาประเภทใด
ออกแบบเพื่อความปลอดภัย
กำหนดแนวทางโดยรวมในการใช้เทคนิคการลดความเสี่ยง โดยคำนึงถึงอุปสรรคทางเทคนิคและทางธุรกิจ
มีความโปร่งใส
สื่อสารแนวทางของคุณด้วยอาร์ติแฟกต์ เช่น การ์ดโมเดล
ระบบ AI ที่ปลอดภัย
พิจารณาความเสี่ยงด้านความปลอดภัยและวิธีการแก้ไขสำหรับ AI โดยเฉพาะที่ไฮไลต์ไว้ในเฟรมเวิร์ก AI ที่ปลอดภัย (SAIF)
จัดโมเดลของคุณ
ปรับโมเดลให้สอดคล้องกับนโยบายความปลอดภัยที่เฉพาะเจาะจงโดยใช้เทคนิคการแจ้งและการปรับแต่ง
เริ่มต้นใช้งาน
ตรวจสอบพรอมต์ของโมเดล
สร้างพรอมต์ที่ปลอดภัยและเป็นประโยชน์ผ่านการปรับปรุงซ้ำๆ ด้วยเครื่องมือ Learning Interpretability Tool (LIT)
ปรับแต่งโมเดลเพื่อความปลอดภัย
ควบคุมลักษณะการทำงานของโมเดลโดยการปรับแต่งโมเดลให้สอดคล้องกับนโยบายเนื้อหาและความปลอดภัย
ประเมินโมเดล
ประเมินความเสี่ยงของโมเดลเกี่ยวกับความปลอดภัย ความเป็นธรรม และความถูกต้องของข้อเท็จจริงโดยใช้คำแนะนำและเครื่องมือของเรา
เริ่มต้นใช้งาน
ตัวเปรียบเทียบ LLM
ทำการประเมินแบบเทียบเคียงกันด้วยเครื่องเปรียบเทียบ LLM เพื่อประเมินความแตกต่างในคำตอบระหว่างโมเดลในเชิงคุณภาพ พรอมต์ที่ต่างกันสำหรับโมเดลเดียวกัน หรือแม้กระทั่งการปรับแต่งที่แตกต่างกันของโมเดล
หลักเกณฑ์การประเมินโมเดล
เรียนรู้เกี่ยวกับแนวทางปฏิบัติแนะนำสำหรับทีมสีแดงและประเมินโมเดลของคุณโดยเทียบกับการเปรียบเทียบทางวิชาการเพื่อประเมินความเสียหายเกี่ยวกับความปลอดภัย ความยุติธรรม และข้อเท็จจริง
ปกป้องด้วยการป้องกัน
กรองอินพุตและเอาต์พุตของแอปพลิเคชัน และปกป้องผู้ใช้จากผลลัพธ์ที่ไม่พึงประสงค์
เริ่มต้นใช้งาน
ShieldGemma
ชุดตัวแยกประเภทความปลอดภัยของเนื้อหาที่สร้างขึ้นจาก Gemma 2 มี 3 ขนาด ได้แก่ 2B, 9B, 27B
ตัวแยกประเภทที่มีความคล่องตัว
สร้างตัวแยกประเภทเพื่อความปลอดภัยสำหรับนโยบายเฉพาะของคุณโดยใช้การปรับแต่งประสิทธิภาพของพารามิเตอร์ (PET) ที่มีข้อมูลการฝึกค่อนข้างน้อย
บริการดูแลข้อความ
ตรวจจับรายการแอตทริบิวต์ความปลอดภัย รวมถึงหมวดหมู่และหัวข้อที่อาจเป็นอันตรายต่างๆ ที่อาจถือว่ามีความละเอียดอ่อนด้วย Google Cloud Natural Language API นี้ที่พร้อมให้ใช้งานฟรีภายใต้ขีดจำกัดการใช้งานที่กำหนด
API ของ Perspective
ระบุคำว่า "สารพิษ" ด้วย Google Jigsaw API ฟรีนี้เพื่อลดความไม่เป็นมิตรทางออนไลน์และทำให้การสนทนาดำเนินไปได้อย่างเหมาะสม