แนวทางในการใช้ปัญญาประดิษฐ์ (AI) อย่างมีความรับผิดชอบควรมีดังนี้ นโยบายความปลอดภัย อาร์ติแฟกต์ที่โปร่งใส และ การป้องกัน แต่การใช้ AI อย่างมีความรับผิดชอบนั้นมีความหมายมากกว่า รายการตรวจสอบต่อไปนี้
ผลิตภัณฑ์ GenAI ค่อนข้างใหม่และลักษณะการทำงานของแอปพลิเคชันอาจแตกต่างกันไป มากกว่าซอฟต์แวร์รูปแบบเดิมๆ ด้วยเหตุนี้ คุณจึงควรตรวจสอบ ซึ่งใช้ในการตรวจสอบตัวอย่างลักษณะการทำงานของโมเดล และตรวจสอบ ความประหลาดใจ
การใช้ข้อความแจ้งเป็นอินเทอร์เฟซที่ใช้กันทั่วไปสำหรับการโต้ตอบกับ GenAI และ และวิศวกรรมศาสตร์ พรอมต์เหล่านั้นก็เป็นศิลปะพอๆ กับวิทยาศาสตร์ อย่างไรก็ตาม มีเครื่องมือที่จะช่วยคุณปรับปรุงพรอมต์สำหรับ LLM โดยใช้ข้อมูลเชิงประจักษ์ เช่น เครื่องมือการตีความการเรียนรู้ (LIT) LIT เป็นโอเพนซอร์ส เครื่องมือในการทำความเข้าใจและแก้ไขข้อบกพร่องของโมเดล AI ซึ่งสามารถใช้เป็น โปรแกรมแก้ไขข้อบกพร่องสำหรับงานด้านวิศวกรรมพรอมต์ ทำตามบทแนะนำที่ให้มาโดยใช้ Colab หรือ Codelab
วิเคราะห์ Gemma Model ด้วย LIT
เริ่ม Codelab | เริ่ม Google Colab |
รูปที่ 1 อินเทอร์เฟซผู้ใช้ของ LIT: เครื่องมือแก้ไข Datapoint ที่ด้านบนช่วยให้ ผู้ใช้ให้แก้ไขข้อความแจ้งได้ ที่ด้านล่าง โมดูลความโดดเด่นของ LM จะช่วยให้ผู้ใช้ตรวจสอบผลลัพธ์ของความโดดเด่นได้
คุณสามารถใช้ LIT บนเครื่องของคุณเองได้ใน Colab หรือใน Google Cloud
รวมทีมที่ไม่ใช่ด้านเทคนิคไว้ในการสํารวจและการตรวจสอบโมเดล
การตีความต้องอาศัยการทำงานเป็นทีม โดยใช้ความเชี่ยวชาญที่ครอบคลุม นโยบาย กฎหมาย และอื่นๆ สื่อที่เป็นภาพและความสามารถในการโต้ตอบของ LIT ในการตรวจสอบความโดดเด่นและสำรวจตัวอย่างต่างๆ จะช่วยให้ผู้มีส่วนเกี่ยวข้องต่างๆ สามารถแชร์และสื่อสารสิ่งที่ค้นพบได้ แนวทางนี้สามารถทำให้เกิดความหลากหลายของมุมมองมากขึ้นใน การสำรวจโมเดล การตรวจสอบ และการแก้ไขข้อบกพร่อง การช่วยให้เพื่อนร่วมงานได้รู้จักวิธีการทางเทคนิคเหล่านี้จะช่วยเพิ่มความเข้าใจเกี่ยวกับวิธีการทำงานของโมเดล ใน ยิ่งไปกว่านั้น ชุดความเชี่ยวชาญที่หลากหลายมากขึ้นในการทดสอบ โมเดลขั้นต้นยังช่วย ค้นพบผลลัพธ์ที่ไม่พึงประสงค์ที่สามารถปรับปรุงได้