GpuDelegateFactory.Options

คลาสแบบคงที่สาธารณะ GpuDelegateFactory.Options
คลาสย่อยโดยตรงที่รู้จัก

ตัวเลือกการมอบสิทธิ์

ชั้นเรียนที่ซ้อนกัน

enum GpuDelegateFactory.Options.GpuBackend แบ็กเอนด์ GPU ที่จะเลือก

ค่าคงที่

int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER การมอบสิทธิ์จะใช้เพียงครั้งเดียว ดังนั้นควรพิจารณาเวลา Bootstrap/init ด้วย
int INFERENCE_PREFERENCE_SUSTAINED_SPEED ต้องการเพิ่มอัตราการส่งข้อมูลให้สูงสุด

บริษัทก่อสร้าง

วิธีการสาธารณะ

boolean
GpuDelegateFactory.Options.GpuBackend
int
String
String
boolean
GpuDelegateFactory.Options
setForceBackend(GpuDelegateFactory.Options.GpuBackend forceBackend)
ตั้งค่าแบ็กเอนด์ GPU
GpuDelegateFactory.Options
setInferencePreference(ค่ากำหนด Intent)
ตั้งค่ากำหนดการอนุมานสำหรับความแม่นยำ/การคอมไพล์/เวลาสมดุลของรันไทม์
GpuDelegateFactory.Options
setPrecisionLossAllowed(บูลีน PrecisionLossAllowed)
ตั้งค่าว่าจะอนุญาตการสูญเสียความแม่นยำหรือไม่
GpuDelegateFactory.Options
setQuantizedModelsAllowed(บูลีน quantizedModelsAllowed)
เปิดใช้โมเดลที่ปรับขนาดแล้วที่กำลังทำงานด้วยการมอบสิทธิ์
GpuDelegateFactory.Options
setSerializationParams(String serializationDir, String modelToken)
เปิดใช้การทำให้เป็นอนุกรมในผู้รับมอบสิทธิ์

วิธีการที่รับช่วงมา

ค่าคงที่

สาธารณะ คงที่ ขั้นสุดท้าย int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER

การมอบสิทธิ์จะใช้เพียงครั้งเดียว ดังนั้นควรพิจารณาเวลา Bootstrap/init ด้วย

ค่าคงที่: 0

สาธารณะ คงที่ สุดท้าย int INFERENCE_PREFERENCE_SUSTAINED_SPEED

ต้องการเพิ่มอัตราการส่งข้อมูลให้สูงสุด ระบบจะใช้ผู้รับมอบสิทธิ์เดียวกันซ้ำในอินพุตหลายรายการ

มูลค่าคงที่: 1

บริษัทก่อสร้าง

สาธารณะ ตัวเลือก ()

วิธีการสาธารณะ

สาธารณะ บูลีน areQuantizedModelsAllowed ()

สาธารณะ GpuDelegateFactory.Options.GpuBackend getForceBackend ()

สาธารณะ int getInferencePreference ()

สาธารณะ สตริง getModelToken ()

สาธารณะ สตริง getSerializationDir ()

สาธารณะ บูลีน isPrecisionLossAllowed ()

สาธารณะ GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend)

ตั้งค่าแบ็กเอนด์ GPU

พารามิเตอร์
forceBackend

สาธารณะ GpuDelegateFactory.Options setInferencePreference (ค่ากำหนด Intent)

ตั้งค่ากำหนดการอนุมานสำหรับความแม่นยำ/การคอมไพล์/เวลาสมดุลของรันไทม์

พารามิเตอร์
ค่ากำหนด หนึ่งใน "INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER" (ค่าเริ่มต้น) "INFERENCE_PREFERENCE_SustAINED_SPEED"

สาธารณะ GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)

ตั้งค่าว่าจะอนุญาตการสูญเสียความแม่นยำหรือไม่

พารามิเตอร์
precisionLossAllowed เมื่อ "true" (ค่าเริ่มต้น) GPU อาจระบุจำนวน tensors, ค่าดาวน์แคสต์ ประมวลผลใน FP16 เมื่อเป็น "false" การคำนวณจะเกิดขึ้นในรูปจุดลอยตัว 32 บิต

สาธารณะ GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)

เปิดใช้โมเดลที่ปรับขนาดแล้วที่กำลังทำงานด้วยการมอบสิทธิ์

คำเตือน: นี่เป็น API ทดลองและอาจมีการเปลี่ยนแปลง

พารามิเตอร์
quantizedModelsAllowed เมื่อ true (ค่าเริ่มต้น) GPU อาจเรียกใช้โมเดลที่เล็กลง

สาธารณะ GpuDelegateFactory.Options setSerializationParams (สตริงการทำให้เป็นอนุกรม, String modelToken)

เปิดใช้การทำให้เป็นอนุกรมในผู้รับมอบสิทธิ์ ต้องมี serializationDir และ modelToken ที่ไม่เป็นค่าว่างสำหรับการทำให้เป็นอนุกรม

คำเตือน: นี่เป็น API ทดลองและอาจมีการเปลี่ยนแปลง

พารามิเตอร์
serializationDir ไดเรกทอรีที่จะใช้ในการจัดเก็บข้อมูล ผู้โทรมีหน้าที่ตรวจสอบว่าโมเดลไม่ได้เก็บในไดเรกทอรีสาธารณะ เราขอแนะนำให้ใช้ Context.getCodeCacheDir() เพื่อระบุตำแหน่งส่วนตัวสำหรับแอปพลิเคชันใน Android
modelToken โทเค็นที่ใช้ระบุโมเดล ผู้โทรมีหน้าที่ตรวจสอบว่าโทเค็นของกราฟและข้อมูลโมเดลไม่ซ้ำกัน