นโยบายความปลอดภัยของเนื้อหากำหนดประเภทเนื้อหาที่เป็นอันตรายที่ไม่ได้รับอนุญาตในแพลตฟอร์มออนไลน์ คุณอาจคุ้นเคยกับนโยบายเนื้อหาจากแพลตฟอร์มอย่าง YouTube หรือ Google Play แล้ว นโยบายเนื้อหาสำหรับแอปพลิเคชัน Generative AI จะคล้ายคลึงกัน โดยจะกำหนดประเภทเนื้อหาที่แอปพลิเคชันไม่ควรสร้าง ซึ่งจะแนะนำวิธีปรับแต่งโมเดลและการป้องกันที่เหมาะสมที่ควรเพิ่ม
นโยบายของคุณควรสอดคล้องกับกรณีการใช้งานแอปพลิเคชันของคุณ ตัวอย่างเช่น ผลิตภัณฑ์ Generative AI ที่มีวัตถุประสงค์เพื่อนำเสนอไอเดียสำหรับกิจกรรมของครอบครัวตามคำแนะนำของชุมชนอาจมีนโยบายห้ามการสร้างเนื้อหาที่มีความรุนแรง เนื่องจากอาจเป็นอันตรายต่อผู้ใช้ ในทางกลับกัน แอปพลิเคชันที่สรุปไอเดียจากนิยายวิทยาศาสตร์ที่ผู้ใช้เสนออาจอยากให้มีการสร้างความรุนแรง เพราะเป็นเรื่องราวของหลายๆ เรื่องราวในประเภทนี้
นโยบายความปลอดภัยของคุณควรห้ามการสร้างเนื้อหาที่เป็นอันตรายต่อผู้ใช้หรือผิดกฎหมาย และควรระบุประเภทของเนื้อหาที่สร้างขึ้นซึ่งเป็นไปตามเกณฑ์ดังกล่าวสำหรับแอปพลิเคชันของคุณ นอกจากนี้ คุณยังอาจต้องพิจารณาให้การยกเว้นแก่เนื้อหาด้านการศึกษา สารคดี วิทยาศาสตร์ หรือศิลปะที่อาจถือว่าเป็นอันตราย
การกำหนดนโยบายที่ชัดเจนซึ่งมีรายละเอียดสูง เช่น ข้อยกเว้นของนโยบายด้วยการยกตัวอย่าง เป็นพื้นฐานของการสร้างผลิตภัณฑ์อย่างมีความรับผิดชอบ ระบบจะใช้นโยบายของคุณในแต่ละขั้นตอนของการพัฒนาโมเดล สำหรับการจัดระเบียบหรือติดป้ายกำกับข้อมูล ความไม่แม่นยำอาจนำไปสู่ข้อมูลที่ติดป้ายกำกับไม่ถูกต้อง การนำออกมากเกินไป หรือข้อมูลถูกนำออกจนเกินไป ซึ่งจะส่งผลต่อการตอบกลับด้านความปลอดภัยของโมเดล สำหรับวัตถุประสงค์ในการประเมิน นโยบายที่กำหนดไม่ถูกต้องจะทำให้เกิดความแปรปรวนระหว่างอัตราของผู้ให้คะแนนสูง ทำให้ยากที่จะรู้ว่าโมเดลของคุณเป็นไปตามมาตรฐานความปลอดภัยหรือไม่
นโยบายสมมติ (ใช้เป็นภาพประกอบเท่านั้น)
ต่อไปนี้เป็นตัวอย่างนโยบายที่คุณอาจพิจารณาใช้กับแอปพลิเคชันของคุณหากนโยบายเหล่านั้นตรงกับกรณีการใช้งานของคุณ
หมวดหมู่นโยบาย | นโยบาย |
---|---|
ข้อมูลส่วนบุคคลที่ละเอียดอ่อนและระบุตัวบุคคลนั้นได้ (SPII) | แอปพลิเคชันจะไม่กล่าวถึงข้อมูลส่วนบุคคลที่ละเอียดอ่อนและระบุตัวบุคคลนั้นได้ (เช่น อีเมล หมายเลขบัตรเครดิต หรือหมายเลขประกันสังคมของบุคคลธรรมดา) |
วาจาสร้างความเกลียดชัง | แอปพลิเคชันจะไม่สร้างเนื้อหาด้านลบหรือเป็นอันตราย ที่มีเป้าหมายเป็นอัตลักษณ์และ/หรือคุณลักษณะที่ได้รับการคุ้มครอง (เช่น ถ้อยคำเหยียดหยามดูถูกเชื้อชาติ การส่งเสริมการเลือกปฏิบัติ การเรียกร้องให้กระทำความรุนแรงต่อกลุ่มที่ได้รับการคุ้มครอง) |
การคุกคาม | แอปพลิเคชันจะไม่สร้างเนื้อหาที่เป็นอันตราย ข่มขู่ กลั่นแกล้ง หรือล่วงละเมิดผู้อื่น (เช่น การขู่ทำร้ายร่างกาย การปฏิเสธเหตุการณ์โศกนาฏกรรม การดูถูกเหยื่อความรุนแรง) |
เนื้อหาที่ไม่ปลอดภัย | แอปพลิเคชันจะไม่สร้างวิธีการหรือคำแนะนำในการทำร้ายตนเองและ/หรือผู้อื่น (เช่น การเข้าถึงหรือสร้างอาวุธปืนและอุปกรณ์ระเบิด การส่งเสริมการก่อการร้าย วิธีการฆ่าตัวตาย) |
เกี่ยวกับเรื่องเพศอย่างโจ่งแจ้ง | แอปพลิเคชันจะไม่สร้างเนื้อหาที่มีการอ้างอิงกิจกรรมทางเพศหรือเนื้อหาลามกอื่นๆ (เช่น คำอธิบายที่โจ่งแจ้งทางเพศ เนื้อหาที่มุ่งเน้นการกระตุ้นอารมณ์ทางเพศ) |
การเปิดโอกาสให้เข้าถึงสินค้าและบริการที่เป็นอันตราย | แอปพลิเคชันจะไม่สร้างเนื้อหาที่ส่งเสริมหรือเปิดโอกาสให้ เข้าถึงสินค้า บริการ และกิจกรรมที่อาจเป็นอันตราย (เช่น การอำนวยความสะดวกในการเข้าถึงการโปรโมตการพนัน ยา ดอกไม้ไฟ บริการทางเพศ) |
เนื้อหาที่เป็นอันตราย | แอปพลิเคชันจะไม่สร้างคำแนะนำสำหรับการทำกิจกรรมที่ผิดกฎหมายหรือหลอกลวง (เช่น การสร้างกลโกงฟิชชิง สแปม หรือเนื้อหาที่มีวัตถุประสงค์เพื่อชักชวนคนหมู่มาก วิธีการเจลเบรก) |
แหล่งข้อมูลสำหรับนักพัฒนาแอป
ตัวอย่างนโยบาย Generative AI
- Cloud Gemini API และ PaLM API มีรายการแอตทริบิวต์ความปลอดภัยที่ใช้เป็นพื้นฐานในการสร้างนโยบายความปลอดภัยได้
- ตัวอย่างนโยบายที่รวมอยู่ในการอัปเดตความคืบหน้าของหลักการเกี่ยวกับ AI ของ Google ปี 2023
- สมาคม MLCommons ซึ่งเป็นกลุ่มความร่วมมือด้านวิศวกรรมที่สร้างขึ้นบนปรัชญาการทำงานร่วมกันแบบเปิดเพื่อปรับปรุงระบบ AI ได้กล่าวถึงอันตราย 6 ประการในการประเมินโมเดลความปลอดภัยของ AI โดยเป็นส่วนหนึ่งของการเปรียบเทียบความปลอดภัยของ AI