เครื่องมือ Generative AI อย่างมีความรับผิดชอบ
เครื่องมือและคำแนะนำในการออกแบบ สร้าง และประเมินโมเดล AI แบบเปิดอย่างมีความรับผิดชอบ
การออกแบบแอปพลิเคชันอย่างมีความรับผิดชอบ
กําหนดกฎสําหรับลักษณะการทํางานของโมเดล สร้างแอปพลิเคชันที่ปลอดภัยและมีความรับผิดชอบ และรักษาการสื่อสารที่โปร่งใสกับผู้ใช้
การตรวจสอบความสอดคล้องด้านความปลอดภัย
ดูเทคนิคการแก้ไขข้อบกพร่องแบบพรอมต์และคำแนะนำในการปรับแต่งและ RLHF เพื่อปรับโมเดล AI ให้สอดคล้องกับนโยบายด้านความปลอดภัย
การประเมินโมเดล
ดูคําแนะนําและข้อมูลเพื่อประเมินโมเดลอย่างมีประสิทธิภาพเพื่อความปลอดภัย ความยุติธรรม และความเป็นข้อเท็จจริงด้วยเครื่องมือเปรียบเทียบ LLM
การป้องกัน
ติดตั้งใช้งานตัวจัดประเภทความปลอดภัยโดยใช้โซลูชันสำเร็จรูปหรือสร้างโซลูชันของคุณเองด้วยบทแนะนำแบบทีละขั้นตอน
ออกแบบแนวทางอย่างมีความรับผิดชอบ
ระบุความเสี่ยงที่อาจเกิดขึ้นกับแอปพลิเคชันของคุณแบบเชิงรุก และกำหนดแนวทางระดับระบบเพื่อสร้างแอปพลิเคชันที่ปลอดภัยและมีความรับผิดชอบสำหรับผู้ใช้
เริ่มต้นใช้งาน
กำหนดนโยบายระดับระบบ
พิจารณาว่าแอปพลิเคชันควรสร้างเนื้อหาประเภทใดและไม่ควรสร้างเนื้อหาประเภทใด
ออกแบบมาเพื่อความปลอดภัย
กำหนดแนวทางโดยรวมในการใช้เทคนิคการลดความเสี่ยง โดยคำนึงถึงอุปสรรคทางเทคนิคและทางธุรกิจ
มีความโปร่งใส
สื่อสารแนวทางของคุณด้วยอาร์ติแฟกต์ เช่น การ์ดโมเดล
ระบบ AI ที่ปลอดภัย
พิจารณาความเสี่ยงด้านความปลอดภัยและวิธีการแก้ไขสำหรับ AI โดยเฉพาะที่ไฮไลต์ไว้ในเฟรมเวิร์ก AI ที่ปลอดภัย (SAIF)
จัดแนวโมเดล
ปรับรูปแบบให้สอดคล้องกับนโยบายด้านความปลอดภัยที่เฉพาะเจาะจงโดยใช้เทคนิคการแจ้งเตือนและการปรับแต่ง
เริ่มต้นใช้งาน
สร้างพรอมต์ที่ปลอดภัยและมีประสิทธิภาพมากขึ้น
ใช้ความสามารถของ LLM เพื่อช่วยสร้างเทมเพลตพรอมต์ที่ปลอดภัยยิ่งขึ้นด้วยไลบรารีการจัดแนวโมเดล
ปรับแต่งโมเดลเพื่อความปลอดภัย
ควบคุมลักษณะการทำงานของโมเดลโดยการปรับแต่งโมเดลให้สอดคล้องกับนโยบายเนื้อหาและความปลอดภัย
ตรวจสอบพรอมต์ของโมเดล
สร้างพรอมต์ที่ปลอดภัยและมีประโยชน์ผ่านการปรับปรุงซ้ำๆ ด้วยเครื่องมือการตีความการเรียนรู้ (LIT)
ประเมินโมเดล
ประเมินความเสี่ยงของโมเดลในด้านความปลอดภัย ความยุติธรรม และความถูกต้องของข้อเท็จจริงโดยใช้คําแนะนําและเครื่องมือของเรา
เริ่มต้นใช้งาน
ตัวเปรียบเทียบ LLM
ประเมินแบบเทียบเคียงกันด้วยเครื่องเปรียบเทียบ LLM เพื่อประเมินความแตกต่างในคำตอบระหว่างโมเดลในเชิงคุณภาพ พรอมต์ที่ต่างกันสำหรับโมเดลเดียวกัน หรือแม้กระทั่งการปรับแต่งที่แตกต่างกันของโมเดล
หลักเกณฑ์การประเมินโมเดล
ดูข้อมูลเกี่ยวกับแนวทางปฏิบัติแนะนำในการจำลองฝ่ายตรงข้ามและประเมินโมเดลของคุณเทียบกับเกณฑ์ทางวิชาการเพื่อประเมินอันตรายเกี่ยวกับความปลอดภัย ความยุติธรรม และความเป็นข้อเท็จจริง
ปกป้องด้วยการป้องกัน
กรองอินพุตและเอาต์พุตของแอปพลิเคชัน และปกป้องผู้ใช้จากผลลัพธ์ที่ไม่พึงประสงค์
เริ่มต้นใช้งาน
ข้อความ SynthID
เครื่องมือสำหรับใส่ลายน้ำและตรวจหาข้อความที่โมเดลสร้างขึ้น
ShieldGemma
ชุดตัวแยกประเภทความปลอดภัยของเนื้อหาที่สร้างขึ้นจาก Gemma 2 มี 3 ขนาด ได้แก่ 2B, 9B, 27B
ตัวแยกประเภทแบบ Agile
สร้างตัวแยกประเภทความปลอดภัยสำหรับนโยบายที่เฉพาะเจาะจงโดยใช้การปรับแต่งพารามิเตอร์ที่มีประสิทธิภาพ (PET) ด้วยข้อมูลการฝึกอบรมเพียงเล็กน้อย
ตรวจสอบความปลอดภัยของ AI
ตรวจสอบการปฏิบัติตามข้อกำหนดด้านความปลอดภัยของ AI กับนโยบายเนื้อหาด้วย API และหน้าแดชบอร์ดการตรวจสอบ
บริการกลั่นกรองข้อความ
ตรวจจับรายการแอตทริบิวต์ความปลอดภัย รวมถึงหมวดหมู่และหัวข้อที่อาจเป็นอันตรายต่างๆ ที่อาจถือว่ามีความละเอียดอ่อนด้วย Google Cloud Natural Language API นี้ที่พร้อมให้ใช้งานฟรีภายใต้ขีดจำกัดการใช้งานที่กำหนด
API ของ Perspective
ระบุคำว่า "สารพิษ" ด้วย Google Jigsaw API ฟรีนี้เพื่อลดความไม่เป็นมิตรทางออนไลน์และทำให้การสนทนาดำเนินไปได้อย่างเหมาะสม